เมื่อพูดถึงกล้องของสมาร์ทโฟน ยุคแรกๆ นี่แข่งกันเรื่องจำนวนพิกเซลของเซ็นเซอร์ จนกระทั่งเริ่มมีหลายๆ แบรนด์รู้สึกว่า ไม่จำเป็นต้องมีพิกเซลเยอะแล้ว 12-16 ล้านพิกเซลก็เหลือแหล่ ไปแข่งกันเรื่องขนาดเซ็นเซอร์ ขนาดพิกเซลกันต่อ หรือไม่ก็ไปแข่งกันเรื่องของความครบเครื่องของเลนส์ มีเลนส์มุมกว้าง เลนส์เทเลโฟโต้ และเลนส์อัลตร้าไวด์ นี่คือดีงาม แต่เมื่อทุกๆ ค่ายต่างก็ทำเหมือนกันได้หมดแล้ว และด้วยข้อจำกัดเรื่องขนาดของสมาร์ทโฟน การจะยัดสเปกไปมากกว่านี้คงทำไม่ได้ ก็ถึงเวลาย้ายสนามรบไปที่ Computational photography กันล่ะ
Computational photography คืออะไร?
Marc Levoy ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ และ Principal engineer ที่ Google ผู้ซึ่งเป็นหนึ่งในผู้บุกเบิกเรื่องนี้ให้คำนิยามเอาไว้ว่า “Computational photography เป็นเทคนิคในการเพิ่มคุณภาพหรือประสิทธิภาพของการถ่ายภาพด้วยกล้องดิจิทัล โดยผลลัพธ์ที่ได้ก็ยังคงเป็นภาพถ่ายนี่แหละ แต่เป็นแบบที่ไม่สามารถถ่ายได้ด้วยกล้องถ่ายรูปแบบปกติ”
อ่านนิยามแล้วอาจจะรู้สึกแปลกๆ … แต่ถ้าผมเปลี่ยนมาอธิบายแบบนี้ล่ะ … อย่างที่บอกไปในตอนต้น กล้องของสมาร์ทโฟนมันมีข้อจำกัดครับ ด้วยขนาดที่เล็กของตัวสมาร์ทโฟน เซ็นเซอร์ภาพ เลนส์ ระยะห่างระหว่างเลนส์ และอะไรต่อมิอะไรอีกหลายๆ อย่าง มันก็มีข้อจำกัดทางกายภาพ สุดท้ายแล้วมันก็สู้พวกกล้องใหญ่ๆ เลนส์อันโตๆ ไม่ได้

เอ้า! ยกตัวอย่างง่ายๆ ด้านบนคือภาพถ่ายด้วย OPPO Reno Zoom ซึ่งมีรูรับแสงกว้าง F1.7 สังเกตว่าด้วยรูรับแสงที่กว้าง ถ้าเราพยายามถ่ายภาพโดยที่วัตถุที่เป็นจุดโฟกัสหลักของเรามันอยู่ใกล้กล้อง ด้านหลังมันก็จะละลาย
ทีนี้มาดูรูปด้านล่างต่อ ถ่ายด้วย Olympus E-PL7 เลนส์ฝูเจี้ยน 25mm F1.8 ซึ่งถ้าว่ากันที่ตัวเลข เจ้านี่ก็ต้องรูรับแสงแคบกว่า OPPO Reno Zoom ถูกแมะ แต่จริงๆ มันไม่ใช่ เพราะเลนส์มันคนละไซส์กันเลย จึงส่งผลให้เราจะเห็นว่า ฉากหลังของแม่มณีเนี่ย ละลายมากกว่าฮะ ซึ่งเป็นอะไรที่ความสามารถทางกายภาพของกล้อง OPPO Reno Zoom มันทำไม่ได้

ทลายข้อจำกัดทางกายภาพด้วย Computational photography
แล้วจุดเด่นของกล้องสมาร์ทโฟนคืออะไร? มันก็คือความสามารถในการประมวลผลของหน่วยประมวลผล ที่นับว่าก็ยิ่งมีประสิทธิภาพมากขึ้นๆ รวมถึงความสามารถในการเพิ่มพวกเซ็นเซอร์ต่างๆ หรือแม้แต่เลนส์กล้องเข้าไป ซึ่งเซ็นเซอร์และเลนส์กล้องต่างๆ ที่เพิ่มเข้าไปเนี่ย มันช่วยให้สมาร์ทโฟนมี “ข้อมูล” มากขึ้น

และด้วยข้อมูลที่เพิ่มขึ้นนี่แหละ ที่ทำให้สมาร์ทโฟนสามารถประมวลผลภาพ เพื่อทลายข้อจำกัดทางกายภาพ เช่น ภาพด้านบน ถ่ายด้วย OPPO Reno Zoom เหมือนเดิม แต่ถ่ายด้วยโหมด Portrait หรือที่ชาวบ้านเรียกว่า หน้าชัดหลังเบลอ เราจะเห็นว่าจากระยะถ่ายเดิม เรากลับได้ภาพฉากหลังที่ละลายกว่าการถ่ายด้วยกล้อง Mirrorless เลนส์ F1.8 ซะอีกครับ

Computational photography นี่ เขาใช้กันมาตั้งกะนานนมแล้ว ตอนนั้นก็มีกล้อง Lytro ที่ทำการเก็บข้อมูลแสงที่เข้ามาตกกระทบกับเซ็นเซอร์กล้องทั้งหมด เพื่อเอามาใช้คำนวณการปรับโฟกัสของภาพหลังจากที่ถ่ายไปแล้ว เป็นกล้องถ่ายก่อนโฟกัสทีหลังที่แท้ทรูจริงๆ
ถัดมาที่เราอาจจะคุ้นๆ กันบ้าง คือฟีเจอร์อย่าง Ultra HD ของสมาร์ทโฟนหลายๆ ยี่ห้อที่ใช้การถ่ายภาพหลายๆ ช็อต แล้วเอามาประมวลผลเป็นภาพเดียว เพื่อให้ได้ภาพที่มีความละเอียดสูงขึ้นระดับ 50 ล้านพิกเซล ทั้งๆ ที่ตัวกล้องนี่อาจจะมีเซ็นเซอร์แค่ 13 ล้านพิกเซล เป็นต้น

Google นี่จริงจังกับ Computational photography มาก และกล้องของ Google Pixel ก็ได้รับอานิสงส์จากการพัฒนาด้านนี้ไปเต็มๆ เราจะเห็นได้ว่าขนาด Google Pixel 3XL ที่มีเลนส์แค่เลนส์เดียว แต่กลับสามารถถ่ายภาพหน้าชัดหลังเบลอ หรือภาพในที่มืดได้ดีกว่ากล้องของสมาร์ทโฟนเรือธงหลายๆ รุ่นเลย
Apple เองก็ใช้ Computational photography มาพักใหญ่ๆ แล้ว ก็ Portrait mode ไง ที่มีมาตั้งกะ iPhone 7 Plus และเรื่อยมาจนถึง Deep Fusion บน iPhone 11/11 Pro ล่าสุดนี่ ซึ่งเน้นไปที่การทำให้ภาพมีรายละเอียดมากขึ้น
Computational photography ยังไปได้อีกไกล
ด้วยการมาของ Computational photography มันทำให้กล้องสมาร์ทโฟนนี่มีความสามารถใกล้กับพวกกล้องใหญ่ๆ อย่าง Mirrorless หรือ DSLR มากขึ้น แน่นอนว่าในหลายๆ เรื่องมันยังไม่อาจจะก้าวข้ามข้อจำกัดทางกายภาพได้ แต่เมื่อเทคโนโลยีมันก้าวหน้าขึ้น เทคนิคการทำ Computational photography มันพัฒนาไปมากขึ้น ข้อมูลที่ได้จากเซ็นเซอร์กล้อง และเซ็นเซอร์อื่นๆ มันจะเข้ามาช่วยให้ฮาร์ดแวร์และซอฟต์แวร์ สามารถประมวลผลภาพ ให้มีคุณภาพที่ดีขึ้น ทลายข้อจำกัดทางกายภาพได้มากขึ้น
การถ่ายภาพด้วยสมาร์ทโฟนมันก็ยังมีอนาคตอีกไกลครับ