Peneliti A.I. Mendesak Regulator untuk Tidak Mengerem Perkembangannya

Peneliti kecerdasan buatan berpendapat bahwa tidak ada gunanya memberlakukan peraturan ketat pada perkembangannya pada tahap ini, karena teknologinya masih dalam tahap awal dan birokrasi hanya akan memperlambat kemajuan di lapangan. Sistem AI saat ini mampu melakukan tugas yang relatif “sempit”, seperti bermain game, menerjemahkan bahasa, dan merekomendasikan konten.

Tapi mereka jauh dari “umum” dengan cara apapun dan beberapa berpendapat bahwa para ahli tidak lebih dekat dengan cawan suci AGI (kecerdasan umum buatan) – kemampuan hipotetis AI untuk memahami atau mempelajari tugas intelektual apapun yang dimiliki manusia. bisa – daripada di tahun 1960-an ketika apa yang disebut “ayah baptis AI” memiliki beberapa terobosan awal. Ilmuwan komputer di lapangan telah memberi tahu CNBC bahwa kemampuan AI telah dilampaui secara signifikan oleh beberapa orang. Neil Lawrence, seorang profesor di University of Cambridge, mengatakan kepada CNBC bahwa istilah AI telah diubah menjadi sesuatu yang sebenarnya bukan.

“Tidak ada yang menciptakan sesuatu yang seperti kemampuan kecerdasan manusia,” kata Lawrence, yang dulunya adalah direktur pembelajaran mesin Amazon di Cambridge. Ini adalah hal-hal pengambilan keputusan algoritmik sederhana.

Lawrence mengatakan regulator tidak perlu memberlakukan aturan baru yang ketat pada pengembangan AI pada tahap ini. Orang-orang berkata “bagaimana jika kita membuat AI yang sadar dan itu semacam kehendak bebas” kata Lawrence. “Saya pikir kita masih jauh dari itu bahkan menjadi diskusi yang relevan.” Pertanyaannya adalah, seberapa jauh kita? Beberapa tahun? Beberapa dekade? Beberapa abad? Tidak ada yang benar-benar tahu, tetapi beberapa pemerintah ingin memastikan mereka siap.

Berbicara tentang A.I.

Pada tahun 2014, Elon Musk memperingatkan bahwa AI bisa “berpotensi lebih berbahaya daripada nuklir” dan fisikawan Stephen Hawking di tahun yang sama mengatakan bahwa AI dapat mengakhiri umat manusia. Pada tahun 2017, Musk kembali menekankan bahaya AI, mengatakan bahwa hal itu dapat menyebabkan perang dunia ketiga dan dia menyerukan agar pengembangan AI diatur.

“AI adalah resiko eksistensial mendasar bagi peradaban manusia, dan saya rasa orang-orang tidak sepenuhnya menghargainya,” kata Musk. Namun, banyak peneliti AI mempermasalahkan pandangan Musk tentang AI. Pada 2017, Demis Hassabis, pendiri polymath dan CEO DeepMind, setuju dengan para peneliti AI dan pemimpin bisnis (termasuk Musk) pada konferensi bahwa “superintelligence” akan ada suatu hari nanti.

Superintelligence didefinisikan oleh profesor Oxford Nick Bostrom sebagai “kecerdasan apapun yang sangat melebihi kinerja kognitif manusia di hampir semua domain minat”. Dia dan yang lainnya berspekulasi bahwa mesin superintelligent suatu hari nanti bisa berbalik melawan manusia. Sejumlah lembaga penelitian di seluruh dunia berfokus pada keamanan AI termasuk Future of Humanity Institute di Oxford dan Pusat Studi Resiko Eksistensial di Cambridge.

Bostrom, direktur pendiri Future of Humanity Institute, mengatakan kepada CNBC tahun lalu bahwa ada tiga cara utama di mana AI dapat menyebabkan kerusakan jika entah bagaimana menjadi jauh lebih kuat. Mereka:

  • AI bisa melakukan sesuatu yang buruk pada manusia.
  • Manusia bisa melakukan hal buruk satu sama lain menggunakan AI.
  • Manusia dapat melakukan hal-hal buruk pada AI (dalam skenario ini, AI akan memiliki semacam status moral.)

“Masing-masing kategori ini adalah tempat yang masuk akal di mana segala sesuatunya bisa salah,” kata filsuf Swedia itu. Salah satu pendiri Skype Jaan Tallinn melihat AI sebagai salah satu ancaman eksistensial yang paling mungkin bagi keberadaan umat manusia. Dia menghabiskan jutaan dolar untuk mencoba memastikan teknologi dikembangkan dengan aman. Itu termasuk melakukan investasi awal di laboratorium AI seperti DeepMind (sebagian agar dia dapat mengawasi apa yang mereka lakukan) dan mendanai penelitian keamanan AI di universitas. Tallinn mengatakan kepada CNBC November lalu bahwa penting untuk melihat seberapa kuat dan seberapa signifikan pengembangan AI akan mendukung pengembangan AI.

“Jika suatu hari manusia mengembangkan AI dan hari berikutnya manusia berada di luar lingkaran maka saya pikir sangat dibenarkan untuk khawatir tentang apa yang terjadi,” katanya.

Sumber : cnbc.com.

Leave a comment

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *