Google เปิดตัวสมาร์ทโฟนเรือธง Pixel 2 และ 2 XL ที่มีประสิทธิภาพกล้องที่เหนือชั้นกว่าสมาร์ทโฟนรุ่นอื่นๆ ด้วยศักยภาพเทคโนโลยี AI (Artificial Intelligence : ปัญญาประดิษฐ์)
ฟีเจอร์หนึ่งที่ Pixel 2 และ 2 XL สามารถทำได้เช่นเดียวกับสมาร์ทโฟนที่มีกล้องหลัง 2 ตัว คือ การถ่ายภาพโหมด Portrait ซึ่งใช้เทคโนโลยี AI ช่วยในการประมวลผลภาพได้อย่างยอดเยี่ยม
…เรามาดูกันว่า Google ทำได้อย่างไร ?
สเปคกล้อง Google Pixel 2
กล้องหลัง | Google Pixel 2 และ 2 XL | Google Pixel และ XL |
---|---|---|
ความละเอียด | 12 ล้านพิกเซล | 12 ล้านพิกเซล |
เลนส์ | f/1.8 | f/2.0 |
ขนาดเซ็นเซอร์ | 1/2.6 นิ้ว | 1/2.3 นิ้ว |
ขนาดพิกเซล | 1.4 μm | 1.55 μm |
OIS | มี | ไม่มี |
จะเห็นได้ว่า Pixel 2 และ 2 XL ได้อัปเกรดสเปคกล้องหลังให้สามารถเก็บรายละเอียดของสีและแสงได้มากขึ้น และยังมีระบบกันสั่น (OIS : Optical Image Stabilization) ด้วย
อธิบายการถ่ายภาพโหมด Portrait ของ Pixel 2 และ 2 XL
การถ่ายภาพโหมด Portrait ด้วยกล้องหลังเพียงตัวเดียวของ Pixel 2 และ 2 XL มีด้วยกัน 3 ชั้นตอน ดังนี้
ขั้นที่ 1: HDR+
HDR ย่อมาจาก High-Dynamic Range ซึ่งใช้การนำภาพที่มี Exposure ต่างกัน 2 ภาพ คือ มืด และสว่าง มารวมกันในภาพเดียว ทำให้เห็นรายละเอียดทั้งในส่วนที่มืดและสว่างของภาพได้ชัดเจนมากยิ่งขึ้น
ส่วน HDR+ นั้น จะใช้การถ่ายภาพจำนวน 10 ภาพ คือ ภาพที่มี Exposure ต่ำ ไปจนถึงภาพที่มีไฮไลท์สูงมาก มารวมกันเป็นภาพเดียว ซึ่งผลลัพธ์ที่ได้นั้น ปรากฏให้เห็นด้านล่างนี้
ขั้นที่ 2: ศักยภาพของ AI
เมื่อได้ภาพ HDR+ แล้ว Machine Learning หรือ AI จะเข้ามามีส่วนช่วยเทรนระบบ Neural Network (โครงข่ายประสาทเทียม) ในการตรวจจับบุคคล, สัตว์เลี้ยง, ดอกไม้ และอื่นๆในลักษณะเดียวกัน เพื่อเลือกจุดที่จะโฟกัสและจุดที่จะเบลอ
กล่าวคือ Neural Network จะกรองภาพด้วยการชั่งน้ำหนักโดยรวมของพิกเซลทั้งหมด ดังนี้
- เริ่มจากกรองสีและขอบ จากนั้นจะกรองไปเรื่อยๆจนบนใบหน้า
- ระบบ Neural Network ได้รับการเทรนให้รู้จักผู้คนกว่าล้านรูปแบบ เช่น บางคนใส่หมวก, บางคนใส่แว่นดำ และอื่นๆอีกมากมาย
- ทำ Segmentation Mask (การกำหนดจุดแบ่งส่วนของภาพ) ดัังที่ปรากฏด้านล่าง
ขั้นที่ 3: Dual Pixel
หลังจากทำ Segmentation Mask แล้วนั้น ต่อมาคือการเบลอภาพในหลายระดับ เนื่องจากพื้นหลังนั้นจะมีระยะลึกที่ต่างกัน โดย Pixel 2 มีเซ็นเซอร์ Dual Pixel ที่สามารถแบ่งแต่ละพิกเซลออกมาเป็น 2 พิกเซลย่อย หรือที่เรียกว่า Dual Pixel Auto Focus (DPAF) เพื่อเก็บรายละเอียดเดียวกันด้วยมุมของภาพที่ต่างกันเล็กน้อยมากๆ ซึ่งใช้ในการกำหนดความลึกของวัตถุแต่ละชิ้น
ผลลัพธ์
ผลที่ได้นั้น ยอดเยี่ยมมากๆ คือ ส่วนที่สว่างจะอยู่ใกล้ และส่วนที่มืดจะอยู่ไกล ซึ่งอธิบายได้ดังนี้
- ใช้การรวมภาพด้านซ้ายและภาพด้านขวา (หรืออาจเป็นภาพด้านบนและภาพด้านล่าง) ด้วยอัลกอริทึ่มแยกส่วน ซึ่งคล้ายกับ Jump Assembler ของ Google
- อัลกอริทึ่มนำพิกเซลย่อยมาจัดเรียงเพื่อสร้าง Depth Map (การกำหนดจุดลึกของภาพเพื่อเป็นฉากหลัง) ที่มีความละเอียดต่ำ
- เพิ่ม Depth Map ความละเอียดสูง
ด้วยขั้นตอนที่ซับซ้อนนี้ ทำให้ได้การรวมภาพในขั้นตอนสุดท้ายนั้นสมบูรณ์แบบ โดยสามารถกรอง Noise ออก เพื่อให้ได้ภาพที่คมชัด และแม่นยำอย่างที่สุด แม้แต่ปลายเส้นผมที่หยิกงอ หรือการถ่ายภาพ Macro ก็ตาม
จำไว้นะ Apple …ต้องทำให้ได้อย่างนี้ !
สำหรับกล้องหน้านั้น ไม่มีเซ็นเซอร์ Dual Pixel จึงใช้เพียง 2 ชั้นตอนแรก แต่ได้ผลลัพธ์ที่ดีใกล้เคียงกัน
ข้อมูลอ้างอิง : phonearena