Kemas kini versi beta yang baharu untuk iOS 13 bakal dikeluarkan tidak lama lagi, akan mempunyai dan mengaktifkan ciri sistem pemproses imej pada aplikasi kamera bagi iPhone 11, iPhone 11 Pro dan iPhone 11 Pro Max, menurut The Verge. Ciri baharu tersebut ialah sistem Deep Fusion yang diperkenalkan pada acara khas Apple tetapi tidak diaktifkan semasa pelancaran dan penjualan rasmi ketiga-tiga model tersebut pada bulan lepas.
Deep Fusion ialah merupakan sistem pemproses imej yang menggunakan cip Apple A13 dan Neural Engine. Dengan penggunaan pembelajaran mesin, sistem ini akan memproses imej pada setiap piksel, tekstur, butiran yang jelas, dan “noise” di setiap bahagian imej. Ciri ini memfokuskan kepada penambahbaikan imej yang ditangkap pada keadaan sekeliling yang mempunyai pencahayaan yang rendah.
Ciri Deep Fusion ini akan diaktifkan mengikut lensa-lensa yang terdapat pada iPhone berdasarkan waktu atau kecerahan keadaan sekeliling. Lensa sudut lebar akan menggunakan ciri Smart HDR secara tetap bagi pencahayaan yang cerah manakala pada pencahayaan sederhana atau malap pula, ciri Deep Fusion diaktif dan digunakan. Bagi waktu malam, ciri Night Mode pula diaktifkan.
Untuk lensa telefoto, ciri Deep Fusion ini adalah sentiasa aktif, tetapi jika pencahayaan sekeliling yang sangat cerah, ciri Smart HDR pula diaktifkan. Bagi lensa sudut lebar ultra, ia hanya menggunakan ciri Smart HDR sahaja dan tidak menyokong ciri Deep Fusion termasuklah Night Mode.
The Verge ada berkongsi penerangan lebih lanjut oleh Apple mengenai pengggunaan ciri ini dengan terperinci dan melibatkan proses yang kompleks. Bagi mengelakkan daripada tersalah terjemahan dan maksud, berikut ialah petikan penerangan mengenai ciri Deep Fusion ini berfungsi:
- By the time you press the shutter button, the camera has already grabbed four frames at a fast shutter speed to freeze motion in the shot and four standard frames. When you press the shutter it grabs one longer-exposure shot to capture detail.
- Those three regular shots and long-exposure shot are merged into what Apple calls a “synthetic long.” This is a major difference from Smart HDR.
- Deep Fusion picks the short-exposure image with the most detail and merges it with the synthetic long exposure. Unlike Smart HDR, Deep Fusion merges these two frames, not more — although the synthetic long is already made of four previously-merged frames. All the component frames are also processed for noise differently than Smart HDR, in a way that’s better for Deep Fusion.
- The images are run through four detail processing steps, pixel by pixel, each tailored to increasing amounts of detail — the sky and walls are in the lowest band, while skin, hair, fabrics, and so on are the highest level. This generates a series of weightings for how to blend the two images — taking detail from one and tone, color, and luminance from the other.
- The final image is generated.
Proses menangkap suatu imej menggunakan ciri Deep Fusion ini akan mengambil masa yang lebih lama berbanding imej normal yang ditangkap menggunakan Smart HDR. Imej yang baru sahaja ditangkap akan ditunjukkan “proxy image” ketika dilihat pada Photos dan hasil akhir yang menunjukkan objek atau tekstur yang lebih jelas pada imej tersebut.
Oleh kerana versi iOS 13.1 sudah pun dilancarkan untuk pengguna umum, Apple mungkin akan menyertakan ciri Deep Fusion ini pada versi beta iOS 13.2 akan datang.
Berikut ialah contoh imej yang ditangkap menggunakan ciri Deep Fusion ini seperti di bawah (ketik pada gambar untuk melihat resolusi sebenar yang dihoskan pada laman The Verge):
Sumber artikel: The Verge
Tambah Komen