Rumor: Apple AI Bisa Berjalan Tanpa Koneksi Internet

Kabarnya, saat Apple nantinya membawa AI ke iOS 18, kecerdasan buatan mereka bisa berjalan tanpa terhubung ke cloud atau internet. Hal ini berarti beban komputasinya akan berjalan internal di ponsel pintar tersebut.

Dengan menangani semua proses, data, dan komputasi AI di perangkatnya masing-masing, fitur ini dianggap bisa lebih ‘aman’ terkait kebocoran dan privasi data. Kabar ini dilaporkan oleh salah seorang reporter Bloomberg, Mark Gurman yang mengatakan bahwa sejumlah fitur yang terkait AI di perangkat Apple, akan sepenuhnya berjalan di perangkat tersebut, yang berarti mungkin tidak membutuhkan koneksi internet untuk bisa berjalan.

Apple sendiri memang beberapa kali dilaporkan sedang mengembangkan LLM (Large Language Model) milik mereka sendiri, yang disebut “Ajax.”

Selain itu, di bulan Desember kemarin, Apple juga dilaporkan berhasil menemukan terobosan yang memungkinkan perangkat iPhone mereka bisa menggunakan AI tanpa perlu beban memori yang terlalu besar. Di dalam jurnal yang berjudul, “LLM in a Flash: Efficient Large Language Model Inference with Limited Memory,” para peneliti mengatakan bahwa flash storage lebih krusial di perangkat mobile, ketimbang RAM yang biasanya digunakan untuk menjalankan LLM.

BACA JUGA: Microsoft Siapkan Beasiswa Sertifikasi AI untuk Ribuan Angkatan Kerja

Makanya, metode tadi memungkinkan AI bisa berjalan di iPhone 2x lebih efisien ketimbang memori yang dibutuhkan, atau 4-5 kali lebih kencang ketimbang menggunakan prosesor (CPU) atau 20-25 kali lebih kencang dibanding menggunakan GPU.

Apple juga sebelumnya dilaporkan telah mengakuisisi beberapa perusahaan AI. Bahkan dibanding Microsoft ataupun Google, Apple lebih banyak membeli perusahaan AI, jika menghitung sejak tahun 2010 — dengan 20 perusahaan. Google menyusul dengan 14 akuisisi dan Microsoft ada di posisi berikutnya dengan 10 akuisisi.

Teknologi AI dari Apple tadi dirumorkan akan membawa fitur-fitur baru ke Messages, Safari, Spotlight Search, dan Siri. Kabarnya, Apple akan mengungkap rencana mereka terkait AI di WWDC di bulan Juni nanti.

Kemampuan ponsel untuk bisa menjalankan LLM secara internal tadi sebenarnya terdengar sangat hiperbolis, bagi orang-orang yang sedikit banyak mengikuti perkembangan teknologi AI. Pasalnya, salah satu LLM yang “open model” yaitu Falcon, butuh memori GPU sebesar 90GB untuk versi Falcon-40B dan 15GB untuk Falcon-7B. Contoh lainnya adalah Mistral-7B yang butuh VM dengan vRAM setidaknya 24GB.

Meski begitu, memang, kita juga belum tahu seperti apa kemampuan AI dari Apple nanti. Karena kemampuan AI-nya jugalah yang nantinya akan menentukan seberapa berat beban komputasi yang dibutuhkan agar bisa berjalan dengan lancar.

Yabes Elia

Yabes Elia

An empath, a jolly writer, a patient reader & listener, a data observer, and a stoic mentor

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.