Bahaya AI Superintelligence: Ratusan Tokoh Dunia Serukan Penghentian Pengembangan
Isu mengenai bahaya kecerdasan buatan (AI) semakin mengemuka seiring dengan meluasnya penggunaan teknologi ini. Di balik kemudahan dan kemajuan yang dibawanya, AI dinilai memiliki potensi mengancam kehidupan manusia.
Menanggapi kekhawatiran ini, ratusan tokoh global dari berbagai bidang, termasuk ilmuwan, mantan petinggi militer, seniman, hingga anggota keluarga kerajaan, telah menandatangani sebuah pernyataan yang menyerukan pelarangan pengembangan AI super atau superintelligence.
Larangan Hingga Ada Konsensus Keamanan
Surat pernyataan yang diinisiasi oleh Future of Life Institute (FLI) tersebut menegaskan bahwa larangan ini tidak boleh dicabut sebelum tercapai konsensus ilmiah yang luas bahwa pengembangan superintelligence dapat dijalankan dengan cara yang aman dan terkendali.
Lebih dari 800 tokoh ternama telah mendukung dokumen ini. Di antara para penandatangan adalah pakar AI ternama Geoffrey Hinton, serta Pangeran Harry dan Meghan Markle. Seruan ini merupakan bagian dari desakan yang semakin panjang untuk memperlambat laju pengembangan AI, di tengah kekhawatiran teknologi ini akan mengubah struktur ekonomi dan budaya global secara drastis.
Perusahaan Teknologi Tetap Berinvestasi Besar
Sementara peringatan dari para ahli terus disuarakan, perusahaan teknologi raksasa seperti OpenAI, Google, dan Meta justru terus menginvestasikan miliaran dolar untuk memperkuat model AI mereka. Investasi ini dialokasikan untuk membangun pusat data yang lebih canggih dan mengintegrasikan fitur AI ke dalam berbagai produk mereka.
Artikel Terkait
Wajib! Logo Wajib di Video & Gambar AI, Imbauan Komdigi untuk Cegah Disinformasi
KIKO & LOLA Bakal Ramaikan Indocomtech 2025, Yuk Main Bareng di Booth MNC Animation & Games!
Bahaya Super AI! Para Ilmuwan Dunia Serukan Penghentian Pengembangan
Waspada Deepfake! Ancaman Serius AI di Media Sosial yang Kian Meresahkan