Kemampuan AI Bisa Kalahkan Banyak Pakar dalam 10 Tahun

Kepala Eksekutif OpenAI, Sam Altman, menyatakan bahwa kemampuan dari kecerdasan buatan (AI) bisa melampaui para pakar, hanya tempo satu dekade mendatang.

Altman menyampaikan, menghentikan munculnya super inteligensi adalah hal yang tidak mungkin, tulisnya dalam sebuah postingan blog di laman resmi OpenAI, baru-baru ini.

“Dalam hal potensi keuntungan dan kerugian, superinteligensi akan lebih kuat daripada teknologi lain yang manusia hadapi di masa lalu,” tulis Altman dalam postingan tersebut, yang ditulis bersama dua eksekutif OpenAI lainnya, Greg Brockman dan Ilya Sutskever.

Altman dan rekan petinggi OpenAI menulis sebuah artikel blog, yang membahas tata kelola superinteligensi, yang merujuk pada kemampuan AI di masa depan yang jauh lebih canggih daripada kecerdasan buatan umum (AGI).

CBS News melansir, para penulis berpendapat bahwa dalam dekade mendatang, sistem AI dapat melampaui tingkat keahlian ahli dan menjalankan aktivitas produktif sebanding dengan perusahaan besar.

Mereka menekankan bahwa super inteligensi memiliki potensi dan risiko yang besar, dan manajemen proaktif sangat penting untuk memastikan masa depan yang sejahtera sambil mengurangi risiko eksistensial.

Prediksi Altman dan peringatannya datang hanya beberapa hari setelah ia memperingatkan sebuah komite Senat bahwa kecerdasan buatan bisa berjalan sangat salah.

Munculnya dengan cepatnya alat AI seperti ChatGPT dari OpenAI dan Bard dari Google telah memicu perdebatan dan kekhawatiran tentang dampaknya terhadap segala hal, mulai dari lapangan kerja, dengan beberapa ahli mengatakan bahwa AI bisa menghilangkan hampir 1 dari 5 pekerjaan, hingga pendidikan, dengan para siswa mengandalkan AI untuk menulis makalah.

Kekuatan AI yang semakin besar bisa membantu umat manusia, tulis para eksekutif OpenAI dalam postingan blog tersebut.

Namun, tambah para petinggi OpenAI, teknologi tersebut kemungkinan perlu diatur untuk memastikan bahwa tidak ada kerusakan yang terjadi saat AI berkembang menjadi super inteligensi.

“Mengingat kemungkinan risiko eksistensial, kita tidak bisa hanya bersifat reaktif,” tulis Altman dan rekannya.

“Energi nuklir adalah contoh historis teknologi yang memiliki sifat ini; biologi sintetis adalah contoh lainnya.”

Dalam hal tersebut, mereka mencatat bahwa diperlukan lembaga seperti Badan Tenaga Atom Internasional dalam industri nuklir untuk mengatur superinteligensi. Beberapa anggota parlemen juga telah mengusulkan pembentukan komisi pengawasan AI.

“Setiap upaya yang melampaui ambang kemampuan tertentu (atau sumber daya seperti komputasi) harus tunduk pada otoritas internasional yang dapat memeriksa sistem, memerlukan audit, menguji kepatuhan terhadap standar keamanan, memberlakukan pembatasan tingkat penerapan dan tingkat keamanan, dan sebagainya,” tulis mereka.

Mereka menambahkan bahwa mencoba menghentikan munculnya superinteligensi tidak akan berhasil.

“Super inteligensi secara inheren merupakan bagian dari jalur teknologi yang kita tempuh, menghentikannya akan memerlukan sesuatu seperti rezim pengawasan global, dan bahkan itu pun tidak dijamin berhasil,” tulis mereka.

“Jadi kita harus melakukannya dengan benar,” pungkas Altman. [ab]

Terkini

Warta Korporat

Terkait