Ini Dampak Negatif AI Menurut Microsoft

Presiden Microsoft, Brad Smith, mengatakan pada hari Kamis bahwa kekhawatirannya terbesar mengenai kecerdasan buatan adalah deep fake, konten yang terlihat nyata tetapi sebenarnya palsu. Kemudian, terdapat dampak negatif AI yang perlu dipahami.

Dalam pidato di Washington yang bertujuan untuk mengatasi masalah regulasi kecerdasan buatan, yang semakin meluas dengan kehadiran ChatGPT dari OpenAI.

Kekhawatiran Akan Dampak Negatif AI

Smith meminta langkah-langkah untuk memastikan bahwa orang-orang mengetahui apakah foto atau video itu nyata atau dibuat oleh kecerdasan buatan, mungkin untuk tujuan jahat.

“Kita harus mengatasi masalah-masalah seputar deep fake. Kita harus terutama mengatasi kekhawatiran kita terhadap operasi pengaruh dunia maya asing, jenis kegiatan yang telah dilakukan oleh pemerintah Rusia, Tiongkok, Iran,” ujar Smith.

“Kita perlu mengambil langkah-langkah untuk melindungi terhadap perubahan konten sah dengan maksud untuk menipu atau menipu orang melalui penggunaan kecerdasan buatan,” tambahnya.

Smith juga meminta adanya lisensi untuk bentuk-bentuk kecerdasan buatan yang paling kritis dengan kewajiban melindungi keamanan, keamanan fisik, keamanan siber, keamanan nasional, dikutip dari Reuters.

“Kita akan membutuhkan generasi baru kontrol ekspor, setidaknya evolusi dari kontrol ekspor yang dimiliki, untuk memastikan bahwa hal ini tidak dicuri atau tidak dipakai dengan cara yang melanggar syarat pengendalian ekspor negara tersebut,” tambahnya.

Selama berminggu-minggu, para pembuat kebijakan di Washington telah berjuang dengan undang-undang apa yang harus diberlakukan untuk mengendalikan kecerdasan buatan.

Meskipun perusahaan-perusahaan besar dan kecil berlomba-lomba menghadirkan kecerdasan buatan yang semakin serbaguna ke pasar.

Minggu lalu, Sam Altman, CEO OpenAI, startup di balik ChatGPT, memberi tahu panel senat dalam penampilannya pertama kali di hadapan Kongres bahwa penggunaan kecerdasan buatan yang mengganggu integritas pemilihan.

Rapat senat tersebut juga dan menambahkan bahwa hal itu perlu diatur lebih lanjut untuk mencegah dampak negatif AI ke depannya.

Altman, yang OpenAI-nya didukung oleh Microsoft, juga meminta kerja sama global dalam kecerdasan buatan dan insentif untuk kepatuhan keselamatan.

Smith juga berpendapat dalam pidato itu, dan dalam pos blog yang diterbitkan pada Kamis (25/5/2023), bahwa orang-orang harus bertanggung jawab atas segala masalah yang disebabkan oleh kecerdasan buatan.

Ia juga mendesak para pembuat undang-undang untuk memastikan bahwa terdapat keamanan pada kecerdasan buatan yang digunakan untuk mengendalikan jaringan listrik, pasokan air, dan infrastruktur kritis lainnya agar manusia tetap berada dalam kendali.

Dia mendorong penggunaan sistem “Kenali Pelanggan Anda” untuk pengembang model kecerdasan buatan yang kuat agar dapat memantau bagaimana teknologi mereka digunakan

dan memberi tahu publik tentang konten yang diciptakan oleh kecerdasan buatan sehingga mereka dapat mengidentifikasi video palsu.

Beberapa proposal yang sedang dipertimbangkan di Capitol Hill akan berfokus pada kecerdasan buatan yang dapat membahayakan kehidupan atau penghidupan seseorang, seperti dalam bidang kedokteran dan keuangan.

Yang lain mendorong adanya aturan untuk memastikan kecerdasan buatan tidak digunakan untuk diskriminasi atau melanggar hak-hak sipil sehingga dampak negatif AI tidak terjadi ke depannya.

Blueprint Lima Poin untuk Tata Kelola Publik Kecerdasan Buatan

Microsoft merupakan salah satu pihak yang perhatian akan dampak negatif AI tersebut. Perusahaan besar software ini kemudian membuat blueprint yang bisa mengelola dan mengendalikan kecerdasan buatan sebaik mungkin, dikutip dari Blog.Microsoft.

Adapun lima poin tersebut:

  • Pertama, implementasikan dan bangun kerangka kerja keamanan kecerdasan buatan yang baru yang dipimpin oleh pemerintah.

Cara terbaik untuk berhasil seringkali adalah membangun atas kesuksesan dan ide-ide baik dari orang lain. Terutama ketika kita ingin bergerak dengan cepat.

Dalam hal ini, ada peluang penting untuk membangun atas karya yang selesai hanya empat bulan lalu oleh National Institute of Standards and Technology (NIST) Amerika Serikat.

Bagian dari Departemen Perdagangan, NIST telah menyelesaikan dan meluncurkan Kerangka Manajemen Risiko Kecerdasan Buatan yang baru. Tentu ini dapat mencegah dampak negatif AI.

Kami menawarkan empat saran konkret untuk mengimplementasikan dan membangun kerangka kerja ini.

Termasuk komitmen yang dilakukan oleh Microsoft sebagai tanggapan atas pertemuan dengan perusahaan-perusahaan kecerdasan buatan terkemuka di Gedung Putih baru-baru ini.

Kami juga percaya bahwa pemerintah dan pemerintah lainnya dapat mempercepat momentum melalui aturan pengadaan berdasarkan kerangka kerja ini.

  • Kedua, memerlukan rem keamanan yang efektif untuk sistem kecerdasan buatan yang mengendalikan infrastruktur kritis.

Di beberapa kalangan, individu-individu yang berpikiran bijaksana semakin sering bertanya apakah kita dapat mengendalikan kecerdasan buatan dengan memuaskan seiring dengan semakin kuatnya kecerdasan buatan tersebut.

Kadang-kadang ada kekhawatiran tentang pengendalian kecerdasan buatan terhadap infrastruktur kritis seperti jaringan listrik, sistem air, dan aliran lalu lintas kota.

Sekarang adalah saat yang tepat untuk membahas pertanyaan ini. Blueprint ini mengusulkan persyaratan keamanan baru yang, pada dasarnya, akan menciptakan rem keamanan untuk sistem kecerdasan buatan yang mengendalikan operasi infrastruktur kritis yang ditentukan. Sistem-sistem fail-safe ini akan menjadi bagian dari pendek

pendekatan komprehensif terhadap keamanan sistem tentu dapat mencegah dampak negatif AI yang akan menjaga pengawasan manusia yang efektif, ketahanan, dan kekokohan dalam pikiran.

Secara semangat, mereka akan mirip dengan sistem pengereman yang telah lama dibangun oleh insinyur dalam teknologi lain seperti lift, bus sekolah, dan kereta berkecepatan tinggi, untuk mengelola dengan aman.

  • Ketiga, mengembangkan kerangka hukum dan regulasi yang luas berdasarkan arsitektur teknologi kecerdasan buatan.

Microsoft percaya bahwa akan ada kebutuhan akan arsitektur hukum dan regulasi untuk kecerdasan buatan yang mencerminkan arsitektur teknologi kecerdasan buatan itu sendiri.

Singkatnya, hukum harus menempatkan tanggung jawab regulasi tertentu pada para pelaku yang berperan dalam mengelola berbagai aspek teknologi kecerdasan buatan.

Oleh karena itu, blueprint ini mencakup informasi tentang beberapa komponen kritis yang terlibat dalam membangun dan menggunakan model kecerdasan buatan generatif baru.

Dengan menggunakan ini sebagai konteks, blueprint ini mengusulkan bahwa hukum-hukum yang berbeda menempatkan tanggung jawab regulasi tertentu pada organisasi yang melaksanakan tanggung jawab tertentu pada tiga lapisan tumpukan teknologi:

  • Lapisan aplikasi
  • Lapisan model, dan
  • Lapisan infrastruktur.

Hal ini seharusnya menerapkan perlindungan hukum yang ada pada lapisan aplikasi terhadap penggunaan kecerdasan buatan untuk mencegah dampak negatif AI.

Ini adalah lapisan di mana keselamatan dan hak-hak individu paling terpengaruh, terutama karena dampak kecerdasan buatan dapat bervariasi dalam skenario teknologi yang berbeda.

Di banyak bidang, kita tidak membutuhkan hukum dan regulasi baru. Sebaliknya, kita perlu menerapkan dan menegakkan hukum yang ada, membantu badan-badan dan pengadilan mengembangkan keahlian yang diperlukan untuk beradaptasi dengan skenario baru.

  • Keempat, mendorong transparansi dan memastikan akses akademik dan nirlaba ke kecerdasan buatan.

Perusahaan software ini percaya bahwa tujuan publik yang kritis adalah memajukan transparansi dan memperluas akses ke sumber daya kecerdasan buatan menjadi bentuk pencegahan dari dampak negatif AI tersebut.

Meskipun ada beberapa ketegangan penting antara transparansi dan kebutuhan akan keamanan, masih ada banyak peluang untuk membuat sistem kecerdasan buatan lebih transparan dengan cara yang bertanggung jawab.

Itulah mengapa Microsoft berkomitmen untuk melaporkan transparansi kecerdasan buatan secara tahunan dan langkah-langkah lain untuk memperluas transparansi bagi layanan kecerdasan buatan kami.

Microsoft juga percaya bahwa penting untuk memperluas akses ke sumber daya kecerdasan buatan bagi penelitian akademik dan komunitas nirlaba.

  • Kelima, mengejar kemitraan publik-swasta baru untuk menggunakan kecerdasan buatan sebagai alat yang efektif untuk mengatasi tantangan-tantangan sosial yang tak terhindarkan yang muncul dengan teknologi baru.

Salah satu pelajaran dari tahun-tahun terakhir adalah apa yang dapat dicapai oleh masyarakat demokratis ketika mereka memanfaatkan kekuatan teknologi dan menyatukan sektor publik dan swasta.

Ini adalah pelajaran yang perlu kita bangun untuk mengatasi dampak kecerdasan buatan pada masyarakat.

Kita semua akan mendapat manfaat dari optimisme yang tajam dan jelas. Kecerdasan buatan adalah alat yang luar biasa.

Tetapi, seperti teknologi lainnya, ia juga dapat menjadi senjata yang kuat, dan akan ada beberapa orang di seluruh dunia yang akan mencoba menggunakannya dengan cara itu.

Tetapi kita sebaiknya merasa sedikit lega dari segi siber dan perang di Ukraina selama satu setengah tahun terakhir.

Apa yang kita temukan adalah bahwa ketika sektor publik dan swasta bekerja sama, ketika sekutu yang berpikiran sama bergabung, dan ketika kita mengembangkan teknologi dan menggunakannya sebagai perisai, itu lebih kuat daripada pedang di planet ini.

Sekarang dibutuhkan pekerjaan yang penting untuk menggunakan kecerdasan buatan untuk melindungi demokrasi dan hak-hak dasar, menyediakan akses luas kepada keterampilan kecerdasan buatan yang akan mempromosikan pertumbuhan inklusif.

Kemudian menggunakan kekuatan kecerdasan buatan untuk memajukan kebutuhan keberlanjutan planet ini.

Mungkin lebih dari apapun, gelombang teknologi kecerdasan buatan baru ini memberikan kesempatan untuk berpikir besar dan bertindak berani. Namun, pada sisi berbeda pengamanan juga penting untuk mencegah dampak negatif AI tersebut.

Di setiap bidang, kunci kesuksesan akan adalah mengembangkan inisiatif konkret dan membawa pemerintah, perusahaan-perusahaan terkemuka, dan LSM yang energik bersama-sama untuk memajukannya.

Microsoft menawarkan beberapa gagasan awal dalam laporan ini, dan kami berharap dapat melakukan lebih banyak lagi dalam bulan dan tahun yang akan datang. [az]

Terkini

Warta Korporat

Terkait