Meta Khawatir Bahaya Teknologi AI Terlalu Canggih

Meta, induk perusahaan Facebook.(Adobe)

ASIAWORLDVIEW – Meta memperkenalkan kebijakan baru, Frontier AI Framework, menguraikan pendekatannya untuk membatasi pengembangan sistem kecerdasan buatan berisiko tinggi. Menurut AI News, kerangka kerja akan membahas kekhawatiran tentang bahaya teknologi AI canggih, terutama dalam keamanan siber dan biosekuriti.

Perusahaan menyatakan bahwa beberapa model AI mungkin terlalu berisiko untuk dirilis, membutuhkan perlindungan internal sebelum penyebaran lebih lanjut. Dalam pengajuan dokumen terbaru, meta mengklasifikasikan sistem AI ke dalam dua kategori berdasarkan risiko potensial.

Kategori-kategori ini berisiko tinggi dan berisiko kritis, masing-masing ditentukan oleh tingkat bahaya yang mungkin. Model AI yang dianggap berisiko tinggi dapat membantu dalam serangan dunia maya atau biologis. Namun, AI risiko kritis dapat menyebabkan kerusakan parah, dengan meta yang menyatakan bahwa sistem tersebut dapat menyebabkan konsekuensi bencana.

Meta akan menghentikan pengembangan sistem apa pun yang diklasifikasikan sebagai risiko kritis dan menerapkan langkah -langkah keamanan tambahan untuk mencegah akses yang tidak sah. Model AI berisiko tinggi akan dibatasi secara internal, dengan pekerjaan lebih lanjut untuk mengurangi risiko sebelum rilis. Kerangka kerja ini mencerminkan fokus perusahaan pada meminimalkan ancaman potensial yang terkait dengan kecerdasan buatan.

Baca Juga: DeepSeek AI Sebabkan Harga di Pasar Kripto Terguncang?

Langkah -langkah keamanan ini datang di tengah kekhawatiran baru -baru ini atas privasi data AI. Dalam berita AI terbaru, Deepseek, startup Cina, telah dihapus dari App Store Apple dan Google’s Play Store di Italia. Otoritas Perlindungan Data negara sedang menyelidiki praktik pengumpulan datanya.

Untuk menentukan tingkat risiko sistem AI, Meta akan bergantung pada penilaian dari peneliti internal dan eksternal. Namun, perusahaan menyatakan bahwa tidak ada tes tunggal yang dapat sepenuhnya mengukur risiko, menjadikan evaluasi ahli sebagai faktor kunci dalam pengambilan keputusan. Kerangka kerja menguraikan proses peninjauan terstruktur, dengan pembuat keputusan senior yang mengawasi klasifikasi risiko akhir.

Untuk AI berisiko tinggi, Meta berencana untuk memperkenalkan langkah-langkah mitigasi sebelum mempertimbangkan rilis. Pendekatan ini akan mencegah sistem AI disalahgunakan sambil mempertahankan fungsionalitas yang dimaksudkan. Jika model kecerdasan buatan diklasifikasikan sebagai risiko kritis, pengembangan akan ditangguhkan sepenuhnya sampai langkah-langkah keamanan dapat memastikan penyebaran yang terkontrol.