“Giảm thiểu nguy cơ tuyệt chủng AI phải là ưu tiên toàn cầu giống như quản lý các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân.”
Được viết bởi: VickyXiao, Juny
Nguồn: Silicon Stars
Kể từ khi trí tuệ nhân tạo rộng rãi càn quét gần như mọi lĩnh vực với tốc độ chóng mặt như vậy, nỗi sợ hãi về việc trí tuệ nhân tạo thách thức con người ngày càng trở nên có thật.
Lần trước, Musk đã đưa ra một bức thư ngỏ kêu gọi tạm dừng đào tạo mô hình lớn AI trong nửa năm và tăng cường giám sát công nghệ AI đối với cộng đồng nghiên cứu trí tuệ nhân tạo và các nhà lãnh đạo trong ngành, kêu gọi tất cả các phòng thí nghiệm trên toàn thế giới tạm dừng phát triển AI. mô hình AI mạnh hơn , với thời gian đình chỉ ít nhất 6 tháng. Nhưng hóa ra anh ấy thực sự đã mua 10.000 GPU cho Twitter để quảng cáo cho một dự án AI hoàn toàn mới và rất có thể anh ấy đang phát triển mô hình ngôn ngữ lớn của riêng mình.
Nhưng lần này, một bức thư ngỏ khác kêu gọi mọi người chú ý đến mối đe dọa do AI gây ra lại được ban hành. Điều đáng chú ý hơn lần trước là 3 gã khổng lồ hiện nay trong lĩnh vực AI nhân tạo: OpenAI, DeepMind (thuộc Google) và Anthropic đều đã nhập cuộc.
Tuyên bố 22 từ, 350 chữ ký
Tuyên bố do Trung tâm An toàn AI, một tổ chức phi lợi nhuận có trụ sở tại San Francisco đưa ra, là một cảnh báo mới về những gì họ tin là mối đe dọa hiện hữu đối với nhân loại do AI gây ra. Toàn bộ tuyên bố chỉ có 22 từ — vâng, bạn đọc đúng đó, chỉ có 22 từ và nội dung đầy đủ như sau:
**Giảm thiểu nguy cơ tuyệt chủng AI phải là ưu tiên toàn cầu cùng với việc quản lý các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân. **
Mặc dù lý thuyết về mối đe dọa của AI không phải là mới, nhưng đây là lần đầu tiên nó được công khai so sánh với các yếu tố khủng hoảng như "chiến tranh hạt nhân" và "đại dịch" gây nguy hiểm cho toàn nhân loại.
Phần dòng tên của tuyên bố dài hơn nhiều so với nội dung của tuyên bố.
Ngoài Sam Altman, Giám đốc điều hành của OpenAI, Demis Hassabis, Giám đốc điều hành của DeepMind và Dario Amode, Giám đốc điều hành của Anthropic, hơn 350 nhà nghiên cứu, kỹ sư và doanh nhân hàng đầu về AI cũng đã tham gia, bao gồm cả "AI Big Three" từng giành giải thưởng Trao giải Turing” cho hai Geoffrey Hinton và Yoshua Bengio, nhưng Yann LeCun, người đã giành giải thưởng cùng họ và hiện là trưởng khoa học AI của Meta, công ty mẹ của Facebook, vẫn chưa ký.
Ngoài ra, các học giả Trung Quốc cũng xuất hiện trong danh sách, bao gồm Zeng Yi, giám đốc Trung tâm nghiên cứu đạo đức và quản trị trí tuệ nhân tạo tại Viện Tự động hóa của Viện Hàn lâm Khoa học Trung Quốc, và Zhan Xianyuan, phó giáo sư tại Đại học Thanh Hoa.
Danh sách đầy đủ các chữ ký có thể được xem tại đây:
Hendrycks, giám đốc điều hành của Trung tâm An ninh AI, người đưa ra tuyên bố, cho biết tuyên bố này ngắn gọn và cố ý không đề cập đến bất kỳ cách tiềm năng nào để giảm thiểu mối đe dọa của trí tuệ nhân tạo nhằm tránh bất đồng. Hendrycks nói: “Chúng tôi không muốn thúc đẩy một danh mục khổng lồ gồm 30 biện pháp can thiệp tiềm năng. "Khi điều đó xảy ra, nó làm loãng thông điệp."
Phiên bản nâng cao của bức thư ngỏ của Musk
Bức thư ngỏ này có thể được coi là một "phiên bản sạch" và nâng cao của bức thư ngỏ hồi đầu năm của Musk.
Trước đó, Musk đã cùng với hơn một nghìn nhà lãnh đạo từ ngành công nghiệp và học viện đưa ra một thông báo chung trên trang web của "Viện Tương lai của Cuộc sống". Bức thư ngỏ chủ yếu truyền tải hai khía cạnh thông tin: một là cảnh báo về mối đe dọa tiềm tàng của trí tuệ nhân tạo đối với xã hội loài người, yêu cầu đình chỉ ngay việc đào tạo bất kỳ hệ thống trí tuệ nhân tạo nào mạnh hơn GPT-4, với khoảng thời gian là ít nhất 6 tháng. Thứ hai là kêu gọi toàn bộ lĩnh vực trí tuệ nhân tạo và các nhà hoạch định chính sách cùng nhau thiết kế một hệ thống quản trị trí tuệ nhân tạo toàn diện để giám sát và xem xét sự phát triển của công nghệ trí tuệ nhân tạo.
Bức thư đã bị chỉ trích vào thời điểm đó ở nhiều cấp độ. Không chỉ vì Musk bị vạch mặt là “không nói tới võ công”, trong khi công khai kêu gọi ngừng nghiên cứu AI, ngấm ngầm xúc tiến một dự án AI mới toanh và chiêu mộ một số tài năng kỹ thuật từ Google và OpenAI, mà còn vì lời gợi ý của “ tạm dừng phát triển" không. Điều đó không khả thi và không giải quyết được vấn đề.
Ví dụ, khi anh ấy giành được Giải thưởng Turing với Yoshua Bengio, Yann LeCun, một trong "Bộ ba vĩ đại" về trí tuệ nhân tạo, đã nói rõ vào thời điểm đó rằng anh ấy không đồng ý với quan điểm của bức thư và không ký tên. Nó.
Tuy nhiên, Yann LeCun cũng không ký bức thư ngỏ mới và mơ hồ hơn này.
Wu Enda, một học giả nổi tiếng trong lĩnh vực trí tuệ nhân tạo và là người sáng lập Landing AI, cũng đã đăng trên LinkedIn vào thời điểm đó rằng ý tưởng tạm dừng đào tạo AI trong 6 tháng là một ý tưởng tồi và phi thực tế.
Ông nói rằng cách duy nhất để thực sự đình chỉ nghiên cứu của ngành về đào tạo AI là sự can thiệp của chính phủ, nhưng yêu cầu chính phủ đình chỉ các công nghệ mới nổi mà họ không hiểu là phản cạnh tranh và rõ ràng không phải là một giải pháp tốt. Ông thừa nhận rằng AI có trách nhiệm là quan trọng và AI có rủi ro, nhưng cách tiếp cận một kích cỡ phù hợp với tất cả là không nên. Điều quan trọng hơn hiện nay là tất cả các bên nên đầu tư nhiều hơn vào lĩnh vực bảo mật trí tuệ nhân tạo đồng thời phát triển công nghệ AI và hợp tác xây dựng các quy định về minh bạch và kiểm toán.
Sam Altman thậm chí còn thẳng thắn tuyên bố khi bị Quốc hội Mỹ chất vấn rằng khuôn khổ cách gọi của Musk là sai, và việc hoãn ngày là vô nghĩa. "Chúng ta tạm dừng 6 tháng, rồi sao? Chúng ta tạm dừng 6 tháng nữa?", ông nói.
Nhưng giống như Andrew Ng, Sam Altman là một trong những người ủng hộ mạnh mẽ nhất cho quy định chặt chẽ hơn của chính phủ đối với AI.
Ông thậm chí còn đưa ra các khuyến nghị về quy định cho chính phủ Hoa Kỳ tại phiên điều trần, yêu cầu chính phủ thành lập một cơ quan chính phủ mới chịu trách nhiệm cấp giấy phép cho các mô hình AI quy mô lớn. .
Tuần trước, ông cũng đã cùng với một số giám đốc điều hành OpenAI khác kêu gọi thành lập một tổ chức quốc tế tương tự như Cơ quan Năng lượng Nguyên tử Quốc tế để điều chỉnh AI và kêu gọi sự hợp tác giữa các nhà phát triển AI hàng đầu quốc tế.
Tiếng nói của đối thủ
Giống như bức thư ngỏ của Musk, bức thư mới nhất này cũng dựa trên giả định rằng các hệ thống AI sẽ cải thiện nhanh chóng, nhưng con người sẽ không có toàn quyền kiểm soát hoạt động an toàn của chúng.
Nhiều chuyên gia chỉ ra rằng những cải tiến nhanh chóng trong các hệ thống như mô hình ngôn ngữ lớn là có thể dự đoán được. Khi các hệ thống AI đạt đến một mức độ tinh vi nhất định, con người có thể mất kiểm soát đối với hành vi của mình. Toby Ord, một học giả từ Đại học Oxford, nói rằng giống như mọi người hy vọng rằng các công ty thuốc lá lớn sẽ thừa nhận rằng sản phẩm của họ sẽ gây ra những mối nguy hiểm nghiêm trọng cho sức khỏe sớm hơn và bắt đầu thảo luận về cách hạn chế những mối nguy này, thì các nhà lãnh đạo AI hiện đang làm như vậy.
Nhưng cũng có nhiều người nghi ngờ những dự đoán này. Họ chỉ ra rằng các hệ thống AI thậm chí không thể xử lý các nhiệm vụ tương đối bình thường, chẳng hạn như lái xe hơi. Bất chấp nhiều năm nỗ lực và hàng chục tỷ đô la đầu tư vào lĩnh vực nghiên cứu này, các phương tiện tự hành hoàn toàn vẫn còn lâu mới trở thành hiện thực. Những người hoài nghi cho rằng nếu AI thậm chí không thể đáp ứng được thách thức này, thì cơ hội nào để công nghệ này trở thành mối đe dọa trong vài năm tới?
Yann LeCun đã lên Twitter để bày tỏ sự phản đối của mình về mối quan tâm này, nói rằng AI siêu phàm hoàn toàn không đứng đầu danh sách khủng hoảng tuyệt chủng của loài người - chủ yếu là vì nó chưa tồn tại. “Trước khi chúng ta có thể thiết kế AI ở cấp độ chó (chứ chưa nói đến AI ở cấp độ con người), còn quá sớm để thảo luận về cách làm cho nó an toàn hơn.”
Wu Enda lạc quan hơn về AI. Ông cho biết, trong mắt ông, những yếu tố có thể gây ra khủng hoảng sinh tồn cho hầu hết loài người, bao gồm dịch bệnh, biến đổi khí hậu, tiểu hành tinh, v.v., thay vào đó, AI sẽ là giải pháp then chốt cho những khủng hoảng này. Nếu nhân loại muốn tồn tại và phát triển trong 1.000 năm tới, AI cần phải phát triển nhanh hơn chứ không phải chậm hơn.
Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
Chữ ký chung của ba người khổng lồ! Thêm một bức thư ngỏ về "Cảnh giác với AI, bảo vệ nhân loại" đã được ban hành
Được viết bởi: VickyXiao, Juny
Nguồn: Silicon Stars
Kể từ khi trí tuệ nhân tạo rộng rãi càn quét gần như mọi lĩnh vực với tốc độ chóng mặt như vậy, nỗi sợ hãi về việc trí tuệ nhân tạo thách thức con người ngày càng trở nên có thật.
Lần trước, Musk đã đưa ra một bức thư ngỏ kêu gọi tạm dừng đào tạo mô hình lớn AI trong nửa năm và tăng cường giám sát công nghệ AI đối với cộng đồng nghiên cứu trí tuệ nhân tạo và các nhà lãnh đạo trong ngành, kêu gọi tất cả các phòng thí nghiệm trên toàn thế giới tạm dừng phát triển AI. mô hình AI mạnh hơn , với thời gian đình chỉ ít nhất 6 tháng. Nhưng hóa ra anh ấy thực sự đã mua 10.000 GPU cho Twitter để quảng cáo cho một dự án AI hoàn toàn mới và rất có thể anh ấy đang phát triển mô hình ngôn ngữ lớn của riêng mình.
Nhưng lần này, một bức thư ngỏ khác kêu gọi mọi người chú ý đến mối đe dọa do AI gây ra lại được ban hành. Điều đáng chú ý hơn lần trước là 3 gã khổng lồ hiện nay trong lĩnh vực AI nhân tạo: OpenAI, DeepMind (thuộc Google) và Anthropic đều đã nhập cuộc.
Tuyên bố 22 từ, 350 chữ ký
Tuyên bố do Trung tâm An toàn AI, một tổ chức phi lợi nhuận có trụ sở tại San Francisco đưa ra, là một cảnh báo mới về những gì họ tin là mối đe dọa hiện hữu đối với nhân loại do AI gây ra. Toàn bộ tuyên bố chỉ có 22 từ — vâng, bạn đọc đúng đó, chỉ có 22 từ và nội dung đầy đủ như sau:
**Giảm thiểu nguy cơ tuyệt chủng AI phải là ưu tiên toàn cầu cùng với việc quản lý các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân. **
Mặc dù lý thuyết về mối đe dọa của AI không phải là mới, nhưng đây là lần đầu tiên nó được công khai so sánh với các yếu tố khủng hoảng như "chiến tranh hạt nhân" và "đại dịch" gây nguy hiểm cho toàn nhân loại.
Phần dòng tên của tuyên bố dài hơn nhiều so với nội dung của tuyên bố.
Ngoài Sam Altman, Giám đốc điều hành của OpenAI, Demis Hassabis, Giám đốc điều hành của DeepMind và Dario Amode, Giám đốc điều hành của Anthropic, hơn 350 nhà nghiên cứu, kỹ sư và doanh nhân hàng đầu về AI cũng đã tham gia, bao gồm cả "AI Big Three" từng giành giải thưởng Trao giải Turing” cho hai Geoffrey Hinton và Yoshua Bengio, nhưng Yann LeCun, người đã giành giải thưởng cùng họ và hiện là trưởng khoa học AI của Meta, công ty mẹ của Facebook, vẫn chưa ký.
Ngoài ra, các học giả Trung Quốc cũng xuất hiện trong danh sách, bao gồm Zeng Yi, giám đốc Trung tâm nghiên cứu đạo đức và quản trị trí tuệ nhân tạo tại Viện Tự động hóa của Viện Hàn lâm Khoa học Trung Quốc, và Zhan Xianyuan, phó giáo sư tại Đại học Thanh Hoa.
Danh sách đầy đủ các chữ ký có thể được xem tại đây:
Hendrycks, giám đốc điều hành của Trung tâm An ninh AI, người đưa ra tuyên bố, cho biết tuyên bố này ngắn gọn và cố ý không đề cập đến bất kỳ cách tiềm năng nào để giảm thiểu mối đe dọa của trí tuệ nhân tạo nhằm tránh bất đồng. Hendrycks nói: “Chúng tôi không muốn thúc đẩy một danh mục khổng lồ gồm 30 biện pháp can thiệp tiềm năng. "Khi điều đó xảy ra, nó làm loãng thông điệp."
Phiên bản nâng cao của bức thư ngỏ của Musk
Bức thư ngỏ này có thể được coi là một "phiên bản sạch" và nâng cao của bức thư ngỏ hồi đầu năm của Musk.
Trước đó, Musk đã cùng với hơn một nghìn nhà lãnh đạo từ ngành công nghiệp và học viện đưa ra một thông báo chung trên trang web của "Viện Tương lai của Cuộc sống". Bức thư ngỏ chủ yếu truyền tải hai khía cạnh thông tin: một là cảnh báo về mối đe dọa tiềm tàng của trí tuệ nhân tạo đối với xã hội loài người, yêu cầu đình chỉ ngay việc đào tạo bất kỳ hệ thống trí tuệ nhân tạo nào mạnh hơn GPT-4, với khoảng thời gian là ít nhất 6 tháng. Thứ hai là kêu gọi toàn bộ lĩnh vực trí tuệ nhân tạo và các nhà hoạch định chính sách cùng nhau thiết kế một hệ thống quản trị trí tuệ nhân tạo toàn diện để giám sát và xem xét sự phát triển của công nghệ trí tuệ nhân tạo.
Bức thư đã bị chỉ trích vào thời điểm đó ở nhiều cấp độ. Không chỉ vì Musk bị vạch mặt là “không nói tới võ công”, trong khi công khai kêu gọi ngừng nghiên cứu AI, ngấm ngầm xúc tiến một dự án AI mới toanh và chiêu mộ một số tài năng kỹ thuật từ Google và OpenAI, mà còn vì lời gợi ý của “ tạm dừng phát triển" không. Điều đó không khả thi và không giải quyết được vấn đề.
Ví dụ, khi anh ấy giành được Giải thưởng Turing với Yoshua Bengio, Yann LeCun, một trong "Bộ ba vĩ đại" về trí tuệ nhân tạo, đã nói rõ vào thời điểm đó rằng anh ấy không đồng ý với quan điểm của bức thư và không ký tên. Nó.
Tuy nhiên, Yann LeCun cũng không ký bức thư ngỏ mới và mơ hồ hơn này.
Wu Enda, một học giả nổi tiếng trong lĩnh vực trí tuệ nhân tạo và là người sáng lập Landing AI, cũng đã đăng trên LinkedIn vào thời điểm đó rằng ý tưởng tạm dừng đào tạo AI trong 6 tháng là một ý tưởng tồi và phi thực tế.
Ông nói rằng cách duy nhất để thực sự đình chỉ nghiên cứu của ngành về đào tạo AI là sự can thiệp của chính phủ, nhưng yêu cầu chính phủ đình chỉ các công nghệ mới nổi mà họ không hiểu là phản cạnh tranh và rõ ràng không phải là một giải pháp tốt. Ông thừa nhận rằng AI có trách nhiệm là quan trọng và AI có rủi ro, nhưng cách tiếp cận một kích cỡ phù hợp với tất cả là không nên. Điều quan trọng hơn hiện nay là tất cả các bên nên đầu tư nhiều hơn vào lĩnh vực bảo mật trí tuệ nhân tạo đồng thời phát triển công nghệ AI và hợp tác xây dựng các quy định về minh bạch và kiểm toán.
Sam Altman thậm chí còn thẳng thắn tuyên bố khi bị Quốc hội Mỹ chất vấn rằng khuôn khổ cách gọi của Musk là sai, và việc hoãn ngày là vô nghĩa. "Chúng ta tạm dừng 6 tháng, rồi sao? Chúng ta tạm dừng 6 tháng nữa?", ông nói.
Nhưng giống như Andrew Ng, Sam Altman là một trong những người ủng hộ mạnh mẽ nhất cho quy định chặt chẽ hơn của chính phủ đối với AI.
Ông thậm chí còn đưa ra các khuyến nghị về quy định cho chính phủ Hoa Kỳ tại phiên điều trần, yêu cầu chính phủ thành lập một cơ quan chính phủ mới chịu trách nhiệm cấp giấy phép cho các mô hình AI quy mô lớn. .
Tuần trước, ông cũng đã cùng với một số giám đốc điều hành OpenAI khác kêu gọi thành lập một tổ chức quốc tế tương tự như Cơ quan Năng lượng Nguyên tử Quốc tế để điều chỉnh AI và kêu gọi sự hợp tác giữa các nhà phát triển AI hàng đầu quốc tế.
Tiếng nói của đối thủ
Giống như bức thư ngỏ của Musk, bức thư mới nhất này cũng dựa trên giả định rằng các hệ thống AI sẽ cải thiện nhanh chóng, nhưng con người sẽ không có toàn quyền kiểm soát hoạt động an toàn của chúng.
Nhiều chuyên gia chỉ ra rằng những cải tiến nhanh chóng trong các hệ thống như mô hình ngôn ngữ lớn là có thể dự đoán được. Khi các hệ thống AI đạt đến một mức độ tinh vi nhất định, con người có thể mất kiểm soát đối với hành vi của mình. Toby Ord, một học giả từ Đại học Oxford, nói rằng giống như mọi người hy vọng rằng các công ty thuốc lá lớn sẽ thừa nhận rằng sản phẩm của họ sẽ gây ra những mối nguy hiểm nghiêm trọng cho sức khỏe sớm hơn và bắt đầu thảo luận về cách hạn chế những mối nguy này, thì các nhà lãnh đạo AI hiện đang làm như vậy.
Nhưng cũng có nhiều người nghi ngờ những dự đoán này. Họ chỉ ra rằng các hệ thống AI thậm chí không thể xử lý các nhiệm vụ tương đối bình thường, chẳng hạn như lái xe hơi. Bất chấp nhiều năm nỗ lực và hàng chục tỷ đô la đầu tư vào lĩnh vực nghiên cứu này, các phương tiện tự hành hoàn toàn vẫn còn lâu mới trở thành hiện thực. Những người hoài nghi cho rằng nếu AI thậm chí không thể đáp ứng được thách thức này, thì cơ hội nào để công nghệ này trở thành mối đe dọa trong vài năm tới?
Yann LeCun đã lên Twitter để bày tỏ sự phản đối của mình về mối quan tâm này, nói rằng AI siêu phàm hoàn toàn không đứng đầu danh sách khủng hoảng tuyệt chủng của loài người - chủ yếu là vì nó chưa tồn tại. “Trước khi chúng ta có thể thiết kế AI ở cấp độ chó (chứ chưa nói đến AI ở cấp độ con người), còn quá sớm để thảo luận về cách làm cho nó an toàn hơn.”
Wu Enda lạc quan hơn về AI. Ông cho biết, trong mắt ông, những yếu tố có thể gây ra khủng hoảng sinh tồn cho hầu hết loài người, bao gồm dịch bệnh, biến đổi khí hậu, tiểu hành tinh, v.v., thay vào đó, AI sẽ là giải pháp then chốt cho những khủng hoảng này. Nếu nhân loại muốn tồn tại và phát triển trong 1.000 năm tới, AI cần phải phát triển nhanh hơn chứ không phải chậm hơn.