Sumber gambar: Dihasilkan oleh alat AI Tak Terbatas
Baru-baru ini, Sébastien Bubeck, kepala Grup Teori Pembelajaran Mesin di Microsoft Redmond Research Institute, bersama dengan Li Yuanzhi, pemenang Sloan Research Award 2023, menerbitkan makalah yang sangat memprihatinkan. Makalah berjudul "The Spark of General Artificial Intelligence: Early Experiments with GPT-4" memiliki panjang 154 halaman. Beberapa orang baik menemukan dari kode sumber LaTex bahwa judul aslinya sebenarnya adalah "Kontak Pertama dengan AGI".
Publikasi makalah ini menandai tonggak penting dalam bidang penelitian kecerdasan buatan. Ini memberikan wawasan berharga tentang pemahaman mendalam kami tentang pengembangan dan penerapan kecerdasan umum buatan (AGI). Pada saat yang sama, judul asli makalah, "Kontak Pertama dengan AGI", juga menyoroti pentingnya dan melihat ke depan dari eksplorasi menuju kecerdasan buatan umum.
Saya dengan sabar membaca versi terjemahan dari makalah ini. Sejujurnya, saya setengah mengerti dan setengah tidak mengerti, dan saya tidak tahu apa yang terjadi. Izinkan saya terlebih dahulu memperkenalkan proposisi inti dari makalah ini: GPT-4 menghadirkan bentuk kecerdasan umum, yang mekar dari percikan kecerdasan buatan umum. Ini dimanifestasikan dalam kemampuan mental intinya (seperti penalaran, kreativitas, dan deduksi), berbagai topik di mana ia memperoleh keahlian (seperti sastra, kedokteran, dan pengkodean), dan berbagai tugas yang dapat dilakukannya (seperti bermain game, menggunakan alat, menjelaskan diri sendiri, dll.).
Setelah membaca artikel ini, saya meninjau kembali artikel saya "Masa Depan Dapat Diharapkan|Lukisan Kecerdasan Buatan: Biarkan Setiap Orang Menjadi Seniman". Saya bertanya pada diri sendiri: Apakah agak sempit untuk mengklasifikasikan model besar seperti ChatGPT dalam konten yang dihasilkan kecerdasan buatan (AIGC) sebelumnya? Seperti yang dinyatakan oleh makalah Microsoft Research, GPT-4 sebenarnya bukan hanya AIGC, ini lebih seperti prototipe kecerdasan buatan umum.
Sebelum menjelaskan apa arti AGI, izinkan saya memberi tahu pembaca kolom "Harapan Masa Depan" The Paper tentang tiga kata ANI, AGI, dan ASI.
Kecerdasan Buatan (AI) biasanya dibagi menjadi tiga tingkatan:
① Kecerdasan buatan yang lemah (Artificial Narrow Intelligence, ANI);
② Kecerdasan Umum Buatan (AGI);
③ Kecerdasan Buatan (ASI).
Selanjutnya saya akan memperkenalkan secara singkat perbedaan dan perkembangan dari ketiga level tersebut.
①Kecerdasan Buatan Lemah (ANI):
AI lemah sejauh ini merupakan bentuk AI yang paling umum. Ini berfokus pada melakukan satu tugas atau memecahkan masalah dalam domain tertentu. Misalnya, pengenalan gambar, pengenalan ucapan, terjemahan mesin, dll. Sistem cerdas seperti itu mungkin lebih baik daripada manusia dalam tugas-tugas tertentu, tetapi mereka hanya dapat bekerja sampai batas tertentu dan tidak dapat menangani masalah yang tidak dirancang untuk dipecahkan. Ada banyak produk dan layanan pintar di pasaran saat ini, seperti asisten virtual (Siri, Microsoft Xiaoice, dll.), Speaker pintar (Tmall Genie, Xiaoai Speaker, dll.) Dan AlphaGo, semuanya termasuk dalam kategori lemah. kecerdasan buatan. Keterbatasan kecerdasan buatan yang lemah adalah kurangnya pemahaman dan kemampuan penilaian yang komprehensif, dan hanya dapat bekerja dengan baik pada tugas-tugas tertentu.
Dengan pengembangan data besar, algoritme, dan daya komputasi yang berkelanjutan, kecerdasan buatan yang lemah secara bertahap menembus ke semua bidang kehidupan kita sehari-hari. Di bidang keuangan, perawatan medis, pendidikan, hiburan, dll., kami telah menyaksikan banyak kasus aplikasi yang berhasil.
②Kecerdasan Buatan Umum (AGI):
Kecerdasan buatan umum, juga dikenal sebagai kecerdasan buatan yang kuat, mengacu pada kecerdasan buatan yang memiliki kecerdasan yang sama dengan manusia dan dapat melakukan semua perilaku cerdas manusia normal. Artinya AGI dapat belajar, memahami, beradaptasi dan memecahkan masalah di berbagai bidang seperti halnya manusia. Berbeda dengan ANI, AGI dapat menyelesaikan berbagai tugas secara mandiri, tidak hanya terbatas pada bidang tertentu. Saat ini, kecerdasan umum buatan diyakini belum tercapai, tetapi banyak perusahaan teknologi dan ilmuwan bekerja keras untuk mendekati tujuan ini.
③ Kecerdasan Buatan Super (ASI):
Kecerdasan buatan super mengacu pada sistem kecerdasan buatan yang jauh melampaui kecerdasan manusia di berbagai bidang. Ia tidak hanya dapat menyelesaikan berbagai tugas yang dapat diselesaikan manusia, tetapi juga jauh melampaui manusia dalam hal kreativitas, kemampuan mengambil keputusan, dan kecepatan belajar. Kemunculan ASI dapat memicu banyak terobosan teknologi dan perubahan sosial yang belum pernah terjadi sebelumnya, serta memecahkan masalah sulit yang tidak dapat dipecahkan oleh manusia.
Namun, ASI juga membawa berbagai potensi risiko. Misalnya, dapat menyebabkan hilangnya nilai dan martabat manusia, memicu penyalahgunaan dan penyalahgunaan kecerdasan buatan, bahkan dapat menyebabkan pemberontakan kecerdasan buatan dan masalah lainnya.
Ternyata selama ini kita selalu percaya bahwa teknologi kecerdasan buatan, mulai dari kecerdasan buatan lemah hingga kecerdasan buatan umum hingga kecerdasan buatan super, akan melalui proses pengembangan yang panjang dan rumit. Dalam proses ini, kami memiliki waktu yang cukup untuk melakukan berbagai persiapan, mulai dari peraturan perundang-undangan hingga persiapan psikologis masing-masing individu. Namun baru-baru ini, saya memiliki perasaan yang kuat bahwa kita mungkin hanya beberapa langkah lagi untuk memiliki kecerdasan buatan umum, dan mungkin hanya membutuhkan waktu 20 tahun atau kurang. Jika ada yang mengatakan prosesnya hanya akan memakan waktu 5-10 tahun, saya tidak akan sepenuhnya mengesampingkannya.
OpenAI menyebutkan dalam "Perencanaan dan Pandangan ke AGI": "AGI memiliki potensi untuk menghadirkan kemampuan baru yang luar biasa bagi semua orang. Kita dapat membayangkan sebuah dunia di mana kita semua bisa mendapatkan hampir semua bantuan dalam tugas kognitif, memberikan pengganda kekuatan yang sangat besar bagi manusia. kecerdasan dan kreativitas."
Namun, rencana ini menekankan proses "transisi bertahap", daripada terlalu menekankan kemampuan AGI yang kuat. "Memberi orang, pembuat kebijakan, dan institusi waktu untuk memahami apa yang sedang terjadi, untuk mengalami sendiri baik dan buruk dari sistem ini, untuk menyesuaikan ekonomi kita, dan untuk menerapkan peraturan."
Menurut pendapat saya, pesan mendasar yang disampaikan oleh bagian ini adalah bahwa teknologi yang mengarah ke AGI sudah ada. Namun, agar masyarakat manusia memiliki proses adaptasi, OpenAI sengaja memperlambat laju kemajuan teknologi. Mereka bermaksud untuk menyeimbangkan kemajuan teknologi dan kesiapan masyarakat manusia, memberikan lebih banyak waktu untuk diskusi adaptasi hukum, etika dan sosial, dan mengambil tindakan yang diperlukan untuk menghadapi tantangan yang mungkin timbul.
Ada kalimat seperti itu dalam "The Analects of Confucius·Ji's General's Conquest of Zhuanyu": "Mulut harimau keluar dari kalajengking" Sekarang, semua jenis GPT, seperti harimau, telah lolos dari kandangnya. Seperti yang dikatakan Yuval Noah Harari, penulis "A Brief History of the Future,": Kecerdasan buatan adalah penguasaan bahasa dengan kemampuan yang melebihi rata-rata level manusia. Dengan menguasai bahasa, kecerdasan buatan sudah memiliki kemampuan untuk menciptakan hubungan intim dengan ratusan juta orang dalam skala besar, dan memegang kunci untuk menginvasi sistem peradaban manusia. Dia lebih lanjut memperingatkan: Perbedaan terbesar antara senjata nuklir dan kecerdasan buatan adalah bahwa senjata nuklir tidak dapat membuat senjata nuklir yang lebih kuat. Tapi **AI bisa menghasilkan AI yang lebih kuat, jadi kita harus bertindak cepat sebelum AI lepas kendali. **
Pada 22 Maret, Future of Life Institute (Future of Life) mengeluarkan surat terbuka kepada seluruh masyarakat berjudul "Penangguhan Penelitian Kecerdasan Buatan Raksasa: Surat Terbuka", menyerukan kepada semua laboratorium kecerdasan buatan untuk segera menangguhkan perbandingan GPT- 4 Pelatihan sistem AI yang lebih kuat dengan jeda minimal 6 bulan. Landon Klein, direktur kebijakan AS di Future of Life Institute, berkata: "Kami melihat momen saat ini mirip dengan awal era nuklir..." Surat terbuka ini telah didukung oleh lebih dari seribu orang, termasuk Elon Musk (Pendiri Tesla), Sam Altman (CEO OpenAI), Joshua Bengio (pemenang Turing Award 2018) dan orang-orang terkenal lainnya.
Jika banyak orang menyadari bahwa kita akan memasuki era "proliferasi nuklir AI", maka kita benar-benar perlu menjajaki sebuah kemungkinan. Kemungkinan ini adalah untuk mendirikan organisasi internasional yang mirip dengan Badan Energi Atom Internasional, yang tujuannya adalah untuk mengawasi semua perusahaan kecerdasan buatan, berdasarkan jumlah GPU yang mereka gunakan, konsumsi energi, dan indikator lainnya. Sistem yang melebihi ambang batas kemampuan tunduk pada audit. Melalui organisasi internasional seperti ini, kita dapat bekerja sama untuk memastikan bahwa teknologi AI membawa manfaat bagi umat manusia, bukan potensi kerugian.
Beberapa ilmuwan menganjurkan bahwa ketika memajukan penelitian dan penerapan kecerdasan buatan, perlu untuk menghindari kemampuan sistem kecerdasan buatan melebihi kendali manusia. Mereka membuat sejumlah metafora untuk menggambarkan malapetaka yang sedang berlangsung, termasuk "seorang anak berusia 10 tahun mencoba bermain catur dengan Stockfish 15", "abad ke-11 mencoba melawan abad ke-21", dan "Australopithecus mencoba melawan Homo. sapiens". Para ilmuwan ini ingin kita berhenti membayangkan AGI sebagai "pemikir mati yang hidup di Internet". Sebaliknya, bayangkan mereka sebagai seluruh peradaban alien yang berpikir sejuta kali lebih cepat daripada manusia. Hanya saja mereka awalnya terbatas pada komputer.
Namun, beberapa ilmuwan optimis. Dalam pandangan mereka, pengembangan dan penelitian kecerdasan buatan harus terus mendorong kemajuan ilmu pengetahuan dan inovasi teknologi. Mereka membandingkan jika di era lahirnya mobil, jika kusir mengusulkan agar pengemudi diskors selama 6 bulan. Menengok ke belakang sekarang, apakah ini perilaku belalang yang bertingkah seperti gerobak? Mereka percaya bahwa melalui pendekatan penelitian yang transparan dan akuntabel, masalah mendasar dapat diatasi dan teknologi AI dapat dikendalikan. Selain itu, melalui eksperimen dan praktik berkelanjutan kita dapat lebih memahami dan menanggapi tantangan yang mungkin ditimbulkan oleh kecerdasan buatan.
Baru-baru ini, Organisasi Kesehatan Dunia (WHO) mengeluarkan peringatan tentang kombinasi kecerdasan buatan dan perawatan kesehatan masyarakat. Mereka menunjukkan bahwa mengandalkan data yang dihasilkan AI untuk pengambilan keputusan dapat berisiko bias atau disalahgunakan. Dalam sebuah pernyataan, WHO mengatakan sangat penting untuk menilai risiko penggunaan model bahasa besar generatif (LLM) seperti ChatGPT untuk melindungi dan mempromosikan kesejahteraan manusia. Mereka menekankan bahwa diperlukan langkah-langkah untuk memastikan keakuratan, keandalan, dan ketidakberpihakan dalam penggunaan teknologi ini untuk melindungi kepentingan publik dan memajukan bidang medis.
Banyak negara telah mengambil langkah-langkah untuk mengatur bidang kecerdasan buatan. Pada 31 Maret, Badan Perlindungan Data Pribadi Italia mengumumkan bahwa mulai sekarang penggunaan ChatGPT akan dilarang sementara. Pada saat yang sama, pejabat UE juga sedang mengerjakan rancangan undang-undang baru yang disebut "Undang-Undang Kecerdasan Buatan (AI)", yang meliputi: melarang penggunaan layanan kecerdasan buatan tertentu dan merumuskan norma hukum terkait.
Departemen Perdagangan AS mengeluarkan pemberitahuan untuk meminta komentar publik, termasuk: apakah model kecerdasan buatan baru yang menimbulkan risiko bahaya perlu ditinjau sebelum dapat dirilis. Pada saat yang sama, Departemen Perdagangan juga berjanji akan menindak produk kecerdasan buatan berbahaya yang melanggar hak sipil dan undang-undang perlindungan konsumen.
Pada 16 Mei, CEO dan salah satu pendiri OpenAI Sam Altman berpartisipasi dalam sidang Kongres AS untuk pertama kalinya, berbicara tentang potensi bahaya teknologi kecerdasan buatan. Dia mengakui bahwa seiring kemajuan kecerdasan buatan, ada kekhawatiran dan kecemasan tentang bagaimana hal itu akan mengubah cara hidup kita. Untuk tujuan ini, dia percaya bahwa intervensi pemerintah dapat mencegah kecerdasan buatan dari "replikasi diri liar dan infiltrasi diri". Dia mengusulkan untuk membentuk badan pengatur yang sama sekali baru yang akan menerapkan perlindungan yang diperlukan dan mengeluarkan lisensi untuk sistem AI, dengan kekuatan untuk mencabutnya.
Di persidangan, Altman ditanya apa kekhawatiran terbesarnya tentang potensi kecerdasan buatan, Dia tidak merinci, hanya mengatakan bahwa "jika teknologi ini salah, itu bisa sangat salah" dan mungkin "Menyebabkan kerusakan yang signifikan bagi dunia". .
Sebelum sidang ini, langkah-langkah pengaturan dan kontrol China di bidang kecerdasan buatan juga telah menarik perhatian luas. Pada tanggal 11 April, untuk mempromosikan pengembangan yang sehat dan penerapan standar teknologi kecerdasan buatan generatif, sesuai dengan "Hukum Keamanan Jaringan Republik Rakyat Tiongkok" dan undang-undang serta peraturan lainnya, Administrasi Dunia Maya Tiongkok menyusun "Manajemen Tindakan untuk Layanan Kecerdasan Buatan Generatif (Draf untuk Komentar)" ". Pendekatan ini mengklarifikasi sikap dukungan dan dorongan untuk industri kecerdasan buatan generatif, misalnya, "Negara mendukung inovasi, promosi dan aplikasi independen, dan kerja sama internasional teknologi dasar seperti algoritme dan kerangka kerja kecerdasan buatan, dan mendorong adopsi prioritas dari perangkat lunak dan alat yang aman dan andal, komputasi, dan sumber daya data.”
Draf opini mensyaratkan bahwa konten yang dihasilkan oleh kecerdasan buatan generatif harus mencerminkan nilai-nilai inti sosialisme, dan tidak boleh mengandung subversi kekuasaan negara, penggulingan sistem sosialis, hasutan untuk memecah belah negara, merusak persatuan nasional, mempromosikan terorisme, ekstremisme, mempromosikan kebencian etnis, diskriminasi etnis, kekerasan, informasi cabul dan pornografi, informasi palsu, dan konten yang dapat mengganggu tatanan ekonomi dan sosial. Draf opini juga mewajibkan pemasok untuk menyatakan penilaian keselamatan, mengambil tindakan untuk mencegah diskriminasi, dan menghormati hak privasi.
Langkah kolektif yang diambil oleh negara-negara ini mengingatkan kita bahwa perkembangan kecerdasan buatan saat ini membawa peluang dan tantangan besar. Kami sangat membutuhkan pedoman dan peraturan etika yang jelas untuk memastikan penggunaan yang tepat dan transparansi teknologi AI. Kami akan menghadapi serangkaian pertanyaan penting: Bagaimana memastikan privasi dan keamanan data? Bagaimana cara menangani bias algoritmik dan ketidakadilan? Bagaimana cara memastikan transparansi dan kejelasan pengambilan keputusan kecerdasan buatan? Persoalan ini perlu dijawab melalui regulasi dan kelembagaan yang jelas.
Saat saya menulis ini, pikiran saya tiba-tiba melompat ke paragraf pertama puisi berjudul "The Long Season" dalam drama domestik populer baru-baru ini "The Long Season":
jentikkan jarimu, katanya
Mari kita menjentikkan jari kita
hal-hal yang jauh akan hancur
Orang-orang di depan saya belum mengetahuinya
Di sini, saya ingin membuat prediksi yang berani: ketika 2024 tiba dan kami datang untuk memilih 2023 kata tahun ini, ChatGPT akan menjadi salah satu dari sepuluh kata paling populer, dan bahkan mungkin menjadi kata tahun ini atau orang tahun ini. .
Mari kita uraikan kata "AI". Jika A adalah singkatan dari Malaikat (Malaikat), maka saya dapat berarti Iblis (Iblis). Saat ini, teknologi kecerdasan buatan berkembang pesat, menunjukkan hubungan simbiosis yang menakjubkan antara "malaikat dan setan". Menghadapi kenyataan ini, kita perlu mengambil tindakan untuk satu tujuan - "mari kita nikmati panen emas dan kecerdasan buatan yang panjang, daripada jatuh ke musim dingin tanpa persiapan."
(Penulis Hu Yi, seorang pekerja data besar yang suka membayangkan masa depan.)
Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
Opini | Pedang Bermata Dua Kecerdasan Buatan Umum: Mengontrol Pembangunan dan Menghindari Krisis
Pengarang: Hu Yi
Sumber: Makalah
Baru-baru ini, Sébastien Bubeck, kepala Grup Teori Pembelajaran Mesin di Microsoft Redmond Research Institute, bersama dengan Li Yuanzhi, pemenang Sloan Research Award 2023, menerbitkan makalah yang sangat memprihatinkan. Makalah berjudul "The Spark of General Artificial Intelligence: Early Experiments with GPT-4" memiliki panjang 154 halaman. Beberapa orang baik menemukan dari kode sumber LaTex bahwa judul aslinya sebenarnya adalah "Kontak Pertama dengan AGI".
Publikasi makalah ini menandai tonggak penting dalam bidang penelitian kecerdasan buatan. Ini memberikan wawasan berharga tentang pemahaman mendalam kami tentang pengembangan dan penerapan kecerdasan umum buatan (AGI). Pada saat yang sama, judul asli makalah, "Kontak Pertama dengan AGI", juga menyoroti pentingnya dan melihat ke depan dari eksplorasi menuju kecerdasan buatan umum.
Saya dengan sabar membaca versi terjemahan dari makalah ini. Sejujurnya, saya setengah mengerti dan setengah tidak mengerti, dan saya tidak tahu apa yang terjadi. Izinkan saya terlebih dahulu memperkenalkan proposisi inti dari makalah ini: GPT-4 menghadirkan bentuk kecerdasan umum, yang mekar dari percikan kecerdasan buatan umum. Ini dimanifestasikan dalam kemampuan mental intinya (seperti penalaran, kreativitas, dan deduksi), berbagai topik di mana ia memperoleh keahlian (seperti sastra, kedokteran, dan pengkodean), dan berbagai tugas yang dapat dilakukannya (seperti bermain game, menggunakan alat, menjelaskan diri sendiri, dll.).
Setelah membaca artikel ini, saya meninjau kembali artikel saya "Masa Depan Dapat Diharapkan|Lukisan Kecerdasan Buatan: Biarkan Setiap Orang Menjadi Seniman". Saya bertanya pada diri sendiri: Apakah agak sempit untuk mengklasifikasikan model besar seperti ChatGPT dalam konten yang dihasilkan kecerdasan buatan (AIGC) sebelumnya? Seperti yang dinyatakan oleh makalah Microsoft Research, GPT-4 sebenarnya bukan hanya AIGC, ini lebih seperti prototipe kecerdasan buatan umum.
Sebelum menjelaskan apa arti AGI, izinkan saya memberi tahu pembaca kolom "Harapan Masa Depan" The Paper tentang tiga kata ANI, AGI, dan ASI.
Kecerdasan Buatan (AI) biasanya dibagi menjadi tiga tingkatan:
① Kecerdasan buatan yang lemah (Artificial Narrow Intelligence, ANI);
② Kecerdasan Umum Buatan (AGI);
③ Kecerdasan Buatan (ASI).
Selanjutnya saya akan memperkenalkan secara singkat perbedaan dan perkembangan dari ketiga level tersebut.
①Kecerdasan Buatan Lemah (ANI):
AI lemah sejauh ini merupakan bentuk AI yang paling umum. Ini berfokus pada melakukan satu tugas atau memecahkan masalah dalam domain tertentu. Misalnya, pengenalan gambar, pengenalan ucapan, terjemahan mesin, dll. Sistem cerdas seperti itu mungkin lebih baik daripada manusia dalam tugas-tugas tertentu, tetapi mereka hanya dapat bekerja sampai batas tertentu dan tidak dapat menangani masalah yang tidak dirancang untuk dipecahkan. Ada banyak produk dan layanan pintar di pasaran saat ini, seperti asisten virtual (Siri, Microsoft Xiaoice, dll.), Speaker pintar (Tmall Genie, Xiaoai Speaker, dll.) Dan AlphaGo, semuanya termasuk dalam kategori lemah. kecerdasan buatan. Keterbatasan kecerdasan buatan yang lemah adalah kurangnya pemahaman dan kemampuan penilaian yang komprehensif, dan hanya dapat bekerja dengan baik pada tugas-tugas tertentu.
Dengan pengembangan data besar, algoritme, dan daya komputasi yang berkelanjutan, kecerdasan buatan yang lemah secara bertahap menembus ke semua bidang kehidupan kita sehari-hari. Di bidang keuangan, perawatan medis, pendidikan, hiburan, dll., kami telah menyaksikan banyak kasus aplikasi yang berhasil.
②Kecerdasan Buatan Umum (AGI):
Kecerdasan buatan umum, juga dikenal sebagai kecerdasan buatan yang kuat, mengacu pada kecerdasan buatan yang memiliki kecerdasan yang sama dengan manusia dan dapat melakukan semua perilaku cerdas manusia normal. Artinya AGI dapat belajar, memahami, beradaptasi dan memecahkan masalah di berbagai bidang seperti halnya manusia. Berbeda dengan ANI, AGI dapat menyelesaikan berbagai tugas secara mandiri, tidak hanya terbatas pada bidang tertentu. Saat ini, kecerdasan umum buatan diyakini belum tercapai, tetapi banyak perusahaan teknologi dan ilmuwan bekerja keras untuk mendekati tujuan ini.
③ Kecerdasan Buatan Super (ASI):
Kecerdasan buatan super mengacu pada sistem kecerdasan buatan yang jauh melampaui kecerdasan manusia di berbagai bidang. Ia tidak hanya dapat menyelesaikan berbagai tugas yang dapat diselesaikan manusia, tetapi juga jauh melampaui manusia dalam hal kreativitas, kemampuan mengambil keputusan, dan kecepatan belajar. Kemunculan ASI dapat memicu banyak terobosan teknologi dan perubahan sosial yang belum pernah terjadi sebelumnya, serta memecahkan masalah sulit yang tidak dapat dipecahkan oleh manusia.
Namun, ASI juga membawa berbagai potensi risiko. Misalnya, dapat menyebabkan hilangnya nilai dan martabat manusia, memicu penyalahgunaan dan penyalahgunaan kecerdasan buatan, bahkan dapat menyebabkan pemberontakan kecerdasan buatan dan masalah lainnya.
Ternyata selama ini kita selalu percaya bahwa teknologi kecerdasan buatan, mulai dari kecerdasan buatan lemah hingga kecerdasan buatan umum hingga kecerdasan buatan super, akan melalui proses pengembangan yang panjang dan rumit. Dalam proses ini, kami memiliki waktu yang cukup untuk melakukan berbagai persiapan, mulai dari peraturan perundang-undangan hingga persiapan psikologis masing-masing individu. Namun baru-baru ini, saya memiliki perasaan yang kuat bahwa kita mungkin hanya beberapa langkah lagi untuk memiliki kecerdasan buatan umum, dan mungkin hanya membutuhkan waktu 20 tahun atau kurang. Jika ada yang mengatakan prosesnya hanya akan memakan waktu 5-10 tahun, saya tidak akan sepenuhnya mengesampingkannya.
OpenAI menyebutkan dalam "Perencanaan dan Pandangan ke AGI": "AGI memiliki potensi untuk menghadirkan kemampuan baru yang luar biasa bagi semua orang. Kita dapat membayangkan sebuah dunia di mana kita semua bisa mendapatkan hampir semua bantuan dalam tugas kognitif, memberikan pengganda kekuatan yang sangat besar bagi manusia. kecerdasan dan kreativitas."
Namun, rencana ini menekankan proses "transisi bertahap", daripada terlalu menekankan kemampuan AGI yang kuat. "Memberi orang, pembuat kebijakan, dan institusi waktu untuk memahami apa yang sedang terjadi, untuk mengalami sendiri baik dan buruk dari sistem ini, untuk menyesuaikan ekonomi kita, dan untuk menerapkan peraturan."
Menurut pendapat saya, pesan mendasar yang disampaikan oleh bagian ini adalah bahwa teknologi yang mengarah ke AGI sudah ada. Namun, agar masyarakat manusia memiliki proses adaptasi, OpenAI sengaja memperlambat laju kemajuan teknologi. Mereka bermaksud untuk menyeimbangkan kemajuan teknologi dan kesiapan masyarakat manusia, memberikan lebih banyak waktu untuk diskusi adaptasi hukum, etika dan sosial, dan mengambil tindakan yang diperlukan untuk menghadapi tantangan yang mungkin timbul.
Ada kalimat seperti itu dalam "The Analects of Confucius·Ji's General's Conquest of Zhuanyu": "Mulut harimau keluar dari kalajengking" Sekarang, semua jenis GPT, seperti harimau, telah lolos dari kandangnya. Seperti yang dikatakan Yuval Noah Harari, penulis "A Brief History of the Future,": Kecerdasan buatan adalah penguasaan bahasa dengan kemampuan yang melebihi rata-rata level manusia. Dengan menguasai bahasa, kecerdasan buatan sudah memiliki kemampuan untuk menciptakan hubungan intim dengan ratusan juta orang dalam skala besar, dan memegang kunci untuk menginvasi sistem peradaban manusia. Dia lebih lanjut memperingatkan: Perbedaan terbesar antara senjata nuklir dan kecerdasan buatan adalah bahwa senjata nuklir tidak dapat membuat senjata nuklir yang lebih kuat. Tapi **AI bisa menghasilkan AI yang lebih kuat, jadi kita harus bertindak cepat sebelum AI lepas kendali. **
Pada 22 Maret, Future of Life Institute (Future of Life) mengeluarkan surat terbuka kepada seluruh masyarakat berjudul "Penangguhan Penelitian Kecerdasan Buatan Raksasa: Surat Terbuka", menyerukan kepada semua laboratorium kecerdasan buatan untuk segera menangguhkan perbandingan GPT- 4 Pelatihan sistem AI yang lebih kuat dengan jeda minimal 6 bulan. Landon Klein, direktur kebijakan AS di Future of Life Institute, berkata: "Kami melihat momen saat ini mirip dengan awal era nuklir..." Surat terbuka ini telah didukung oleh lebih dari seribu orang, termasuk Elon Musk (Pendiri Tesla), Sam Altman (CEO OpenAI), Joshua Bengio (pemenang Turing Award 2018) dan orang-orang terkenal lainnya.
Jika banyak orang menyadari bahwa kita akan memasuki era "proliferasi nuklir AI", maka kita benar-benar perlu menjajaki sebuah kemungkinan. Kemungkinan ini adalah untuk mendirikan organisasi internasional yang mirip dengan Badan Energi Atom Internasional, yang tujuannya adalah untuk mengawasi semua perusahaan kecerdasan buatan, berdasarkan jumlah GPU yang mereka gunakan, konsumsi energi, dan indikator lainnya. Sistem yang melebihi ambang batas kemampuan tunduk pada audit. Melalui organisasi internasional seperti ini, kita dapat bekerja sama untuk memastikan bahwa teknologi AI membawa manfaat bagi umat manusia, bukan potensi kerugian.
Beberapa ilmuwan menganjurkan bahwa ketika memajukan penelitian dan penerapan kecerdasan buatan, perlu untuk menghindari kemampuan sistem kecerdasan buatan melebihi kendali manusia. Mereka membuat sejumlah metafora untuk menggambarkan malapetaka yang sedang berlangsung, termasuk "seorang anak berusia 10 tahun mencoba bermain catur dengan Stockfish 15", "abad ke-11 mencoba melawan abad ke-21", dan "Australopithecus mencoba melawan Homo. sapiens". Para ilmuwan ini ingin kita berhenti membayangkan AGI sebagai "pemikir mati yang hidup di Internet". Sebaliknya, bayangkan mereka sebagai seluruh peradaban alien yang berpikir sejuta kali lebih cepat daripada manusia. Hanya saja mereka awalnya terbatas pada komputer.
Namun, beberapa ilmuwan optimis. Dalam pandangan mereka, pengembangan dan penelitian kecerdasan buatan harus terus mendorong kemajuan ilmu pengetahuan dan inovasi teknologi. Mereka membandingkan jika di era lahirnya mobil, jika kusir mengusulkan agar pengemudi diskors selama 6 bulan. Menengok ke belakang sekarang, apakah ini perilaku belalang yang bertingkah seperti gerobak? Mereka percaya bahwa melalui pendekatan penelitian yang transparan dan akuntabel, masalah mendasar dapat diatasi dan teknologi AI dapat dikendalikan. Selain itu, melalui eksperimen dan praktik berkelanjutan kita dapat lebih memahami dan menanggapi tantangan yang mungkin ditimbulkan oleh kecerdasan buatan.
Baru-baru ini, Organisasi Kesehatan Dunia (WHO) mengeluarkan peringatan tentang kombinasi kecerdasan buatan dan perawatan kesehatan masyarakat. Mereka menunjukkan bahwa mengandalkan data yang dihasilkan AI untuk pengambilan keputusan dapat berisiko bias atau disalahgunakan. Dalam sebuah pernyataan, WHO mengatakan sangat penting untuk menilai risiko penggunaan model bahasa besar generatif (LLM) seperti ChatGPT untuk melindungi dan mempromosikan kesejahteraan manusia. Mereka menekankan bahwa diperlukan langkah-langkah untuk memastikan keakuratan, keandalan, dan ketidakberpihakan dalam penggunaan teknologi ini untuk melindungi kepentingan publik dan memajukan bidang medis.
Banyak negara telah mengambil langkah-langkah untuk mengatur bidang kecerdasan buatan. Pada 31 Maret, Badan Perlindungan Data Pribadi Italia mengumumkan bahwa mulai sekarang penggunaan ChatGPT akan dilarang sementara. Pada saat yang sama, pejabat UE juga sedang mengerjakan rancangan undang-undang baru yang disebut "Undang-Undang Kecerdasan Buatan (AI)", yang meliputi: melarang penggunaan layanan kecerdasan buatan tertentu dan merumuskan norma hukum terkait.
Departemen Perdagangan AS mengeluarkan pemberitahuan untuk meminta komentar publik, termasuk: apakah model kecerdasan buatan baru yang menimbulkan risiko bahaya perlu ditinjau sebelum dapat dirilis. Pada saat yang sama, Departemen Perdagangan juga berjanji akan menindak produk kecerdasan buatan berbahaya yang melanggar hak sipil dan undang-undang perlindungan konsumen.
Pada 16 Mei, CEO dan salah satu pendiri OpenAI Sam Altman berpartisipasi dalam sidang Kongres AS untuk pertama kalinya, berbicara tentang potensi bahaya teknologi kecerdasan buatan. Dia mengakui bahwa seiring kemajuan kecerdasan buatan, ada kekhawatiran dan kecemasan tentang bagaimana hal itu akan mengubah cara hidup kita. Untuk tujuan ini, dia percaya bahwa intervensi pemerintah dapat mencegah kecerdasan buatan dari "replikasi diri liar dan infiltrasi diri". Dia mengusulkan untuk membentuk badan pengatur yang sama sekali baru yang akan menerapkan perlindungan yang diperlukan dan mengeluarkan lisensi untuk sistem AI, dengan kekuatan untuk mencabutnya.
Di persidangan, Altman ditanya apa kekhawatiran terbesarnya tentang potensi kecerdasan buatan, Dia tidak merinci, hanya mengatakan bahwa "jika teknologi ini salah, itu bisa sangat salah" dan mungkin "Menyebabkan kerusakan yang signifikan bagi dunia". .
Sebelum sidang ini, langkah-langkah pengaturan dan kontrol China di bidang kecerdasan buatan juga telah menarik perhatian luas. Pada tanggal 11 April, untuk mempromosikan pengembangan yang sehat dan penerapan standar teknologi kecerdasan buatan generatif, sesuai dengan "Hukum Keamanan Jaringan Republik Rakyat Tiongkok" dan undang-undang serta peraturan lainnya, Administrasi Dunia Maya Tiongkok menyusun "Manajemen Tindakan untuk Layanan Kecerdasan Buatan Generatif (Draf untuk Komentar)" ". Pendekatan ini mengklarifikasi sikap dukungan dan dorongan untuk industri kecerdasan buatan generatif, misalnya, "Negara mendukung inovasi, promosi dan aplikasi independen, dan kerja sama internasional teknologi dasar seperti algoritme dan kerangka kerja kecerdasan buatan, dan mendorong adopsi prioritas dari perangkat lunak dan alat yang aman dan andal, komputasi, dan sumber daya data.”
Draf opini mensyaratkan bahwa konten yang dihasilkan oleh kecerdasan buatan generatif harus mencerminkan nilai-nilai inti sosialisme, dan tidak boleh mengandung subversi kekuasaan negara, penggulingan sistem sosialis, hasutan untuk memecah belah negara, merusak persatuan nasional, mempromosikan terorisme, ekstremisme, mempromosikan kebencian etnis, diskriminasi etnis, kekerasan, informasi cabul dan pornografi, informasi palsu, dan konten yang dapat mengganggu tatanan ekonomi dan sosial. Draf opini juga mewajibkan pemasok untuk menyatakan penilaian keselamatan, mengambil tindakan untuk mencegah diskriminasi, dan menghormati hak privasi.
Langkah kolektif yang diambil oleh negara-negara ini mengingatkan kita bahwa perkembangan kecerdasan buatan saat ini membawa peluang dan tantangan besar. Kami sangat membutuhkan pedoman dan peraturan etika yang jelas untuk memastikan penggunaan yang tepat dan transparansi teknologi AI. Kami akan menghadapi serangkaian pertanyaan penting: Bagaimana memastikan privasi dan keamanan data? Bagaimana cara menangani bias algoritmik dan ketidakadilan? Bagaimana cara memastikan transparansi dan kejelasan pengambilan keputusan kecerdasan buatan? Persoalan ini perlu dijawab melalui regulasi dan kelembagaan yang jelas.
Saat saya menulis ini, pikiran saya tiba-tiba melompat ke paragraf pertama puisi berjudul "The Long Season" dalam drama domestik populer baru-baru ini "The Long Season":
jentikkan jarimu, katanya
Mari kita menjentikkan jari kita
hal-hal yang jauh akan hancur
Orang-orang di depan saya belum mengetahuinya
Di sini, saya ingin membuat prediksi yang berani: ketika 2024 tiba dan kami datang untuk memilih 2023 kata tahun ini, ChatGPT akan menjadi salah satu dari sepuluh kata paling populer, dan bahkan mungkin menjadi kata tahun ini atau orang tahun ini. .
Mari kita uraikan kata "AI". Jika A adalah singkatan dari Malaikat (Malaikat), maka saya dapat berarti Iblis (Iblis). Saat ini, teknologi kecerdasan buatan berkembang pesat, menunjukkan hubungan simbiosis yang menakjubkan antara "malaikat dan setan". Menghadapi kenyataan ini, kita perlu mengambil tindakan untuk satu tujuan - "mari kita nikmati panen emas dan kecerdasan buatan yang panjang, daripada jatuh ke musim dingin tanpa persiapan."
(Penulis Hu Yi, seorang pekerja data besar yang suka membayangkan masa depan.)