Sementara macOS Monterey (juga dikenal sebagai macOS 12) menghadirkan beberapa fitur baru bagi pengguna, pembaruan juga dilengkapi dengan peningkatan signifikan bagi pengembang dengan semua API baru yang memungkinkan kemungkinan baru untuk aplikasi pihak ketiga. Salah satu API baru adalah “Object Capture”, yang memungkinkan pengguna membuat model 3D dari objek apa pun dengan mudah menggunakan kamera iPhone.
Apple telah mendorong adopsi teknologi AR untuk beberapa waktu sekarang, tetapi membuat model 3D mungkin bukan hal termudah di dunia bagi sebagian orang. Biasanya Anda memerlukan kamera canggih untuk mengambil tangkapan 3D dan kemudian merender semuanya dalam perangkat lunak khusus. Tapi itu berubah dengan macOS Monterey dan iOS 15.
Dengan Object Capture API, Apple mengklaim bahwa seluruh proses pengambilan dan rendering model 3D ini hanya akan memakan waktu beberapa menit. Meskipun masih belum ada aplikasi yang tersedia di App Store dengan fitur baru ini, Apple memberikan beberapa contoh pembuatan aplikasi menggunakan API baru ini, dan tentu saja saya harus mengujinya sendiri.
Syarat & Ketentuan
Pertama, Anda memerlukan iPhone atau iPad dengan kamera belakang dua lensa (dan sebaiknya pemindai LiDAR, meskipun tidak diperlukan) untuk menangkap data kedalaman. Saya menggunakan iPhone 12 Pro Max saya yang menjalankan iOS 15 beta untuk demonstrasi ini. Dengan aplikasi sampel yang disediakan oleh Apple, saya harus mengambil beberapa gambar objek dari sudut yang berbeda, sehingga API dapat merender objek 360 derajat 3D.
Anda memerlukan sekitar 30 foto untuk membuat model 3D, tetapi Apple menyarankan untuk menggunakan lebih banyak foto untuk mendapatkan hasil berkualitas tinggi. Dalam skenario kehidupan nyata, Anda juga harus memiliki kondisi pencahayaan yang optimal, tripod, dan mekanisme untuk memutar objek secara otomatis tanpa mengubah posisinya. Saya tidak punya, jadi tentu saja kualitasnya akan terpengaruh.
Setelah mengambil foto, saya mengirimnya ke Mac saya yang menjalankan macOS Monterey untuk kemudian membuat model 3D. Setelah iOS 15 dan macOS 12 tersedia untuk umum, akan ada aplikasi untuk membantu proses ini, tetapi untuk saat ini saya harus menggunakan kode sampel lain yang disediakan oleh Apple untuk langkah ini.
Object Capture API memungkinkan pengembang dan pengguna untuk merender objek dalam kualitas rendah atau tinggi, dan mereka dapat memilih untuk memproses gambar secara berurutan atau menggunakan AI untuk mengidentifikasi urutan masing-masing (yang akan memakan waktu lebih lama). Menariknya, Apple mengatakan API pemrosesan 3D ini membutuhkan Intel Mac dengan 16GB RAM dan AMD GPU dengan setidaknya 4GB VRAM, atau sembarang Mac dengan chip M1.
Hasil
Setelah 3 menit dan 43 detik, MacBook Air M1 entry-level saya merender 40 bingkai dalam objek 3D dalam format USDZ – yang banyak digunakan untuk konten AR di perangkat Apple. Secara total, proses pengambilan gambar dengan iPhone dan merendernya ke Mac tidak memakan waktu lebih dari 10 menit.
Hasilnya mengejutkan saya. Seperti yang saya katakan, saya jauh dari kondisi ideal untuk mengambil foto, namun Object Capture API membuat model 3D yang terlihat sangat realistis. Anda dapat melihat perbandingan dengan objek nyata dalam video di bawah ini:
Tidak hanya API baru Apple yang membuat saya takjub, tetapi juga fakta bahwa iPhone dan Mac Silicon Apple memiliki perangkat keras yang cukup untuk memungkinkan pembuatan konten semacam itu.
Apple pasti bekerja untuk menciptakan dunia baru augmented reality, dan perusahaan sudah memiliki semua yang dibutuhkan untuk melakukannya. Saya yakin API penangkapan objek baru tidak hanya akan mempermudah pembuatan model 3D, tetapi juga mendorong adopsi AR dalam beberapa cara.
Untuk detail selengkapnya tentang API penangkapan objek baru, lihat “Buat model 3D dengan Object Capture”Sesi WWDC 2021.
FTC: Kami menggunakan tautan afiliasi otomatis yang menghasilkan pendapatan. Setelah.
“Ninja internet yang tak tersembuhkan. Ahli daging. Sangat introvert. Analis. Pakar musik. Pendukung zombie.”