Những người dẫn đầu cuộc cách mạng AI cũng đang kêu gọi các quy định, so sánh với đại dịch và chiến tranh hạt nhân.
** Hãy chuẩn bị tinh thần: Trí tuệ nhân tạo có thể dẫn đến sự tuyệt chủng của loài người. **
Vào thứ Ba, hàng trăm nhà lãnh đạo và nhà nghiên cứu trong ngành AI; bao gồm các giám đốc điều hành của Microsoft, Google và OpenAI, đã đưa ra một cảnh báo nghiêm túc. Họ tuyên bố rằng công nghệ trí tuệ nhân tạo mà họ đang thiết kế một ngày nào đó có thể gây ra mối đe dọa thực sự và hiện tại đối với sự tồn tại của con người. Bên cạnh nỗi kinh hoàng của đại dịch và chiến tranh hạt nhân, họ coi AI là một nguy cơ đối với xã hội ở mức độ tương tự.
Trong một bức thư do Trung tâm An toàn AI công bố, các chuyên gia AI đã đưa ra tuyên bố ngắn gọn như sau: "Việc giảm thiểu nguy cơ tuyệt chủng AI nên được so sánh với các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân. Cùng nhau là ưu tiên toàn cầu."
Đó là nó, đó là những gì họ nói.
Nguồn: Trung tâm AI Security
Tuyên bố mô tả trí tuệ nhân tạo là một mối đe dọa sắp xảy ra, giống như thảm họa hạt nhân hoặc đại dịch toàn cầu. Nhưng những người ký kết, những phù thủy của ngành công nghệ này, đã thất bại trong việc mở rộng những cảnh báo đáng ngại của họ.
Làm thế nào chính xác là kịch bản ngày tận thế này phải đi xuống? Khi nào chúng ta nên đánh dấu lịch của mình cho sự trỗi dậy của các lãnh chúa robot của chúng ta? Tại sao một phát minh đổi mới của con người như trí tuệ nhân tạo lại phản bội người tạo ra nó? Sự im lặng của những kiến trúc sư AI này rất lớn và họ không đưa ra câu trả lời nào.
Trên thực tế, những nhà lãnh đạo ngành này không cung cấp nhiều thông tin hơn một chatbot với các câu trả lời soạn sẵn. Trong thế giới của các mối đe dọa toàn cầu, trí tuệ nhân tạo dường như đã vượt qua hàng đợi, đánh bại biến đổi khí hậu, xung đột địa chính trị và thậm chí cả cuộc xâm lược của người ngoài hành tinh trong các từ khóa tìm kiếm trên Google.
Google tìm kiếm AI so với các vấn đề toàn cầu khác như chiến tranh, cuộc xâm lược của người ngoài hành tinh và biến đổi khí hậu. Hình ảnh: Google
Thật thú vị, các công ty có xu hướng ủng hộ quy định khi nó mang lại lợi ích cho họ. Đây có thể được coi là cách họ nói rằng "chúng tôi muốn trở thành một phần của việc đưa ra các quy định này", giống như một con cáo trong chuồng gà đang cầu xin các quy tắc mới.
Cũng cần lưu ý rằng Giám đốc điều hành OpenAI Sam Altman đã thúc đẩy quy định của Hoa Kỳ. Tuy nhiên, ông đã đe dọa rời khỏi châu Âu nếu các chính trị gia trên lục địa tiếp tục cố gắng điều chỉnh AI. "Chúng tôi sẽ cố gắng tuân thủ," Altman nói trong một cuộc họp hội đồng tại Đại học College London. "Nếu chúng tôi có thể tuân thủ, chúng tôi sẽ làm. Nếu chúng tôi không thể, chúng tôi sẽ ngừng hoạt động."
Công bằng mà nói, anh ấy đã thay đổi giọng điệu của mình vài ngày sau đó và nói rằng OpenAI không có kế hoạch rời khỏi Châu Âu. Tất nhiên, điều này xảy ra sau khi anh ấy có cơ hội thảo luận vấn đề này với các cơ quan quản lý trong một "tuần làm việc rất hiệu quả".
**AI là rủi ro, nhưng nó có rủi ro lớn không? **
Các chuyên gia đã không bỏ qua những tác hại tiềm ẩn của trí tuệ nhân tạo. Một bức thư ngỏ trước đó có chữ ký của 31.810 người ủng hộ đã kêu gọi lệnh cấm đào tạo các mô hình AI mạnh mẽ, bao gồm Elon Musk, Steve Wozniak, Yuval Harari và Andrew Yang.
“Các giao thức này phải đảm bảo chắc chắn rằng các hệ thống tuân thủ chúng là an toàn,” bức thư viết, đồng thời giải thích rằng “điều này không có nghĩa là lệnh cấm chung đối với việc phát triển AI của các mô hình hộp đen có khả năng mới nổi, chỉ là cuộc chạy đua nguy hiểm để trở lại cuộc đua lớn hơn không thể đoán trước."
Vấn đề AI Foom tiềm năng (trong đó AI có thể cải thiện hệ thống của chính nó, tăng khả năng của nó ngoài trí thông minh của con người) đã được thảo luận trong nhiều năm. Tuy nhiên, tốc độ thay đổi nhanh chóng ngày nay, cùng với việc truyền thông đưa tin dày đặc, đã đưa cuộc tranh luận này trở thành tiêu điểm toàn cầu.
Nguồn: Columbia Journalism Review
Điều này đã làm dấy lên những quan điểm khác nhau về cách AI sẽ ảnh hưởng đến tương lai của tương tác xã hội.
Một số hình dung về một kỷ nguyên không tưởng nơi trí tuệ nhân tạo tương tác với con người và tiến bộ công nghệ thống trị tối cao. Những người khác lập luận rằng con người sẽ thích nghi với AI, tạo ra các công việc mới xung quanh công nghệ, tương tự như sự gia tăng việc làm sau khi phát minh ra ô tô. Tuy nhiên, những người khác nhấn mạnh rằng rất có thể AI sẽ trưởng thành và trở nên không thể kiểm soát, gây ra mối đe dọa thực sự cho nhân loại.
Cho đến lúc đó, kinh doanh như bình thường trong thế giới AI. Theo dõi ChatGPT, Bard hoặc Siri của bạn, họ có thể chỉ cần một bản cập nhật phần mềm để thống trị thế giới. Nhưng hiện tại, có vẻ như mối đe dọa lớn nhất của nhân loại không phải là những phát minh của chính chúng ta mà là năng khiếu phóng đại vô hạn của chúng ta.
Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
Các nhà sản xuất AI cảnh báo công nghệ của họ 'có nguy cơ tuyệt chủng'
Những người dẫn đầu cuộc cách mạng AI cũng đang kêu gọi các quy định, so sánh với đại dịch và chiến tranh hạt nhân.
** Hãy chuẩn bị tinh thần: Trí tuệ nhân tạo có thể dẫn đến sự tuyệt chủng của loài người. **
Vào thứ Ba, hàng trăm nhà lãnh đạo và nhà nghiên cứu trong ngành AI; bao gồm các giám đốc điều hành của Microsoft, Google và OpenAI, đã đưa ra một cảnh báo nghiêm túc. Họ tuyên bố rằng công nghệ trí tuệ nhân tạo mà họ đang thiết kế một ngày nào đó có thể gây ra mối đe dọa thực sự và hiện tại đối với sự tồn tại của con người. Bên cạnh nỗi kinh hoàng của đại dịch và chiến tranh hạt nhân, họ coi AI là một nguy cơ đối với xã hội ở mức độ tương tự.
Trong một bức thư do Trung tâm An toàn AI công bố, các chuyên gia AI đã đưa ra tuyên bố ngắn gọn như sau: "Việc giảm thiểu nguy cơ tuyệt chủng AI nên được so sánh với các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân. Cùng nhau là ưu tiên toàn cầu."
Đó là nó, đó là những gì họ nói.
Nguồn: Trung tâm AI Security
Tuyên bố mô tả trí tuệ nhân tạo là một mối đe dọa sắp xảy ra, giống như thảm họa hạt nhân hoặc đại dịch toàn cầu. Nhưng những người ký kết, những phù thủy của ngành công nghệ này, đã thất bại trong việc mở rộng những cảnh báo đáng ngại của họ.
Làm thế nào chính xác là kịch bản ngày tận thế này phải đi xuống? Khi nào chúng ta nên đánh dấu lịch của mình cho sự trỗi dậy của các lãnh chúa robot của chúng ta? Tại sao một phát minh đổi mới của con người như trí tuệ nhân tạo lại phản bội người tạo ra nó? Sự im lặng của những kiến trúc sư AI này rất lớn và họ không đưa ra câu trả lời nào.
Trên thực tế, những nhà lãnh đạo ngành này không cung cấp nhiều thông tin hơn một chatbot với các câu trả lời soạn sẵn. Trong thế giới của các mối đe dọa toàn cầu, trí tuệ nhân tạo dường như đã vượt qua hàng đợi, đánh bại biến đổi khí hậu, xung đột địa chính trị và thậm chí cả cuộc xâm lược của người ngoài hành tinh trong các từ khóa tìm kiếm trên Google.
Google tìm kiếm AI so với các vấn đề toàn cầu khác như chiến tranh, cuộc xâm lược của người ngoài hành tinh và biến đổi khí hậu. Hình ảnh: Google
Thật thú vị, các công ty có xu hướng ủng hộ quy định khi nó mang lại lợi ích cho họ. Đây có thể được coi là cách họ nói rằng "chúng tôi muốn trở thành một phần của việc đưa ra các quy định này", giống như một con cáo trong chuồng gà đang cầu xin các quy tắc mới.
Cũng cần lưu ý rằng Giám đốc điều hành OpenAI Sam Altman đã thúc đẩy quy định của Hoa Kỳ. Tuy nhiên, ông đã đe dọa rời khỏi châu Âu nếu các chính trị gia trên lục địa tiếp tục cố gắng điều chỉnh AI. "Chúng tôi sẽ cố gắng tuân thủ," Altman nói trong một cuộc họp hội đồng tại Đại học College London. "Nếu chúng tôi có thể tuân thủ, chúng tôi sẽ làm. Nếu chúng tôi không thể, chúng tôi sẽ ngừng hoạt động."
Công bằng mà nói, anh ấy đã thay đổi giọng điệu của mình vài ngày sau đó và nói rằng OpenAI không có kế hoạch rời khỏi Châu Âu. Tất nhiên, điều này xảy ra sau khi anh ấy có cơ hội thảo luận vấn đề này với các cơ quan quản lý trong một "tuần làm việc rất hiệu quả".
**AI là rủi ro, nhưng nó có rủi ro lớn không? **
Các chuyên gia đã không bỏ qua những tác hại tiềm ẩn của trí tuệ nhân tạo. Một bức thư ngỏ trước đó có chữ ký của 31.810 người ủng hộ đã kêu gọi lệnh cấm đào tạo các mô hình AI mạnh mẽ, bao gồm Elon Musk, Steve Wozniak, Yuval Harari và Andrew Yang.
“Các giao thức này phải đảm bảo chắc chắn rằng các hệ thống tuân thủ chúng là an toàn,” bức thư viết, đồng thời giải thích rằng “điều này không có nghĩa là lệnh cấm chung đối với việc phát triển AI của các mô hình hộp đen có khả năng mới nổi, chỉ là cuộc chạy đua nguy hiểm để trở lại cuộc đua lớn hơn không thể đoán trước."
Vấn đề AI Foom tiềm năng (trong đó AI có thể cải thiện hệ thống của chính nó, tăng khả năng của nó ngoài trí thông minh của con người) đã được thảo luận trong nhiều năm. Tuy nhiên, tốc độ thay đổi nhanh chóng ngày nay, cùng với việc truyền thông đưa tin dày đặc, đã đưa cuộc tranh luận này trở thành tiêu điểm toàn cầu.
Nguồn: Columbia Journalism Review
Điều này đã làm dấy lên những quan điểm khác nhau về cách AI sẽ ảnh hưởng đến tương lai của tương tác xã hội.
Một số hình dung về một kỷ nguyên không tưởng nơi trí tuệ nhân tạo tương tác với con người và tiến bộ công nghệ thống trị tối cao. Những người khác lập luận rằng con người sẽ thích nghi với AI, tạo ra các công việc mới xung quanh công nghệ, tương tự như sự gia tăng việc làm sau khi phát minh ra ô tô. Tuy nhiên, những người khác nhấn mạnh rằng rất có thể AI sẽ trưởng thành và trở nên không thể kiểm soát, gây ra mối đe dọa thực sự cho nhân loại.
Cho đến lúc đó, kinh doanh như bình thường trong thế giới AI. Theo dõi ChatGPT, Bard hoặc Siri của bạn, họ có thể chỉ cần một bản cập nhật phần mềm để thống trị thế giới. Nhưng hiện tại, có vẻ như mối đe dọa lớn nhất của nhân loại không phải là những phát minh của chính chúng ta mà là năng khiếu phóng đại vô hạn của chúng ta.