Fonte da imagem: Gerada pela ferramenta Unbounded AI
Recentemente, Sébastien Bubeck, chefe do Machine Learning Theory Group no Microsoft Redmond Research Institute, e Li Yuanzhi, vencedor do Sloan Research Award de 2023, publicaram um artigo com grande atenção. O artigo, intitulado "The Spark of General Artificial Intelligence: Early Experiments with GPT-4", tem 154 páginas. Algumas pessoas boas descobriram no código-fonte do LaTex que o título original era na verdade "First Contact with AGI".
A publicação deste artigo marca um marco importante no campo da pesquisa em inteligência artificial. Ele fornece informações valiosas sobre nossa profunda compreensão do desenvolvimento e aplicação da inteligência artificial geral (AGI). Ao mesmo tempo, o título original do artigo, "First Contact with AGI", também destaca a importância e o futuro da exploração da inteligência artificial geral.
Eu li pacientemente a versão traduzida deste artigo. Para ser sincero, meio entendo e meio não entendo, e não sei o que está acontecendo. Deixe-me primeiro apresentar a proposição central deste artigo: GPT-4 apresenta uma forma de inteligência geral, florescendo a centelha da inteligência artificial geral. Isso se manifesta em suas habilidades mentais centrais (como raciocínio, criatividade e dedução), na variedade de tópicos nos quais adquire experiência (como literatura, medicina e codificação) e na variedade de tarefas que pode realizar (como jogar, usar ferramentas, explicar-se, etc.).
Depois de ler este artigo, revisitei meu artigo "O futuro pode ser esperado|Pintura de inteligência artificial: deixe todos se tornarem artistas". Eu me fiz uma pergunta: é um pouco restrito classificar modelos grandes como o ChatGPT em conteúdo gerado por inteligência artificial (AIGC) antes? Como afirmou o artigo da Microsoft Research, o GPT-4 não é apenas AIGC, é mais como o protótipo da inteligência artificial geral.
Antes de explicar o que significa AGI, deixe-me dizer aos leitores da coluna "Futuro Esperado" do The Paper as três palavras ANI, AGI e ASI.
A Inteligência Artificial (IA) costuma ser dividida em três níveis:
① Inteligência artificial fraca (Artificial Narrow Intelligence, ANI);
② Inteligência Geral Artificial (AGI);
③ Superinteligência Artificial (ASI).
A seguir, apresentarei brevemente as diferenças e o desenvolvimento desses três níveis.
①Inteligência artificial fraca (ANI):
IA fraca é de longe a forma mais comum de IA. Ele se concentra na execução de uma única tarefa ou na resolução de um problema em um domínio específico. Por exemplo, reconhecimento de imagem, reconhecimento de voz, tradução automática, etc. Tais sistemas inteligentes podem ser melhores do que os humanos em certas tarefas, mas só podem funcionar de forma limitada e não podem lidar com os problemas para os quais não foram projetados para resolver. Existem muitos produtos e serviços inteligentes no mercado hoje, como assistentes virtuais (Siri, Microsoft Xiaoice, etc.), alto-falantes inteligentes (Tmall Genie, Xiaoai Speaker, etc.) e AlphaGo, todos pertencentes à categoria de fracos inteligência artificial. A limitação da inteligência artificial fraca é que ela carece de compreensão abrangente e capacidade de julgamento e só pode ter um bom desempenho em tarefas específicas.
Com o desenvolvimento contínuo de big data, algoritmos e poder de computação, a fraca inteligência artificial está gradualmente penetrando em todas as áreas de nossa vida diária. Nas áreas de finanças, assistência médica, educação, entretenimento, etc., testemunhamos muitos casos de aplicação bem-sucedidos.
②Inteligência Artificial Geral (AGI):
A inteligência artificial geral, também conhecida como inteligência artificial forte, refere-se à inteligência artificial que possui a mesma inteligência que os humanos e pode realizar todos os comportamentos inteligentes dos humanos normais. Isso significa que a AGI pode aprender, entender, adaptar e resolver problemas em vários campos, assim como os humanos. Ao contrário do ANI, o AGI pode concluir de forma independente uma variedade de tarefas, não apenas limitadas a um campo específico. Atualmente, acredita-se que a inteligência geral artificial ainda não foi alcançada, mas muitas empresas de tecnologia e cientistas estão trabalhando duro para se aproximar desse objetivo.
③ Super Inteligência Artificial (ASI):
Super inteligência artificial refere-se a um sistema de inteligência artificial que supera em muito a inteligência humana em vários campos. Ele pode não apenas concluir várias tarefas que os humanos podem concluir, mas também superar os humanos em termos de criatividade, capacidade de tomada de decisão e velocidade de aprendizado. O surgimento da ASI pode desencadear muitos avanços tecnológicos e mudanças sociais sem precedentes e resolver problemas difíceis que os humanos não conseguem resolver.
No entanto, a ASI também traz consigo uma série de riscos potenciais. Por exemplo, pode levar à perda de valor e dignidade humana, desencadear o abuso e uso indevido da inteligência artificial e pode até levar à rebelião da inteligência artificial e outros problemas.
Acontece que sempre acreditamos que a tecnologia de inteligência artificial, da inteligência artificial fraca à inteligência artificial geral e à superinteligência artificial, passará por um longo e complicado processo de desenvolvimento. Nesse processo, temos tempo suficiente para fazer diversos preparativos, que vão desde leis e regulamentos até o preparo psicológico de cada indivíduo. Recentemente, no entanto, tenho um forte pressentimento de que podemos estar a apenas alguns passos de ter uma inteligência artificial geral, e isso pode levar apenas 20 anos ou menos. Se alguns dizem que o processo levará apenas 5 a 10 anos, eu não descartaria completamente.
A OpenAI mencionou em seu "Planning and Outlook to AGI": "AGI tem o potencial de trazer novos recursos incríveis para todos. Podemos imaginar um mundo onde todos nós podemos obter quase qualquer ajuda em tarefas cognitivas, fornecendo um enorme multiplicador de força para humanos inteligência e criatividade”.
No entanto, este plano enfatiza um processo de "transição gradual", em vez de enfatizar demais os poderosos recursos da AGI. “Dar às pessoas, formuladores de políticas e instituições tempo para entender o que está acontecendo, para experimentar por si mesmos o bom e o ruim desses sistemas, para ajustar nossa economia e colocar a regulamentação em vigor”.
Na minha opinião, a mensagem subjacente transmitida por esta passagem é que a tecnologia que leva à AGI já existe. No entanto, para permitir que a sociedade humana tenha um processo de adaptação, a OpenAI está deliberadamente diminuindo o ritmo do progresso tecnológico. Eles pretendem equilibrar o progresso tecnológico e a prontidão da sociedade humana, permitindo mais tempo para discussões legais, éticas e de adaptação social, e tomando as medidas necessárias para lidar com os desafios que possam surgir.
Existe uma frase em "Os Analectos da Conquista de Zhuanyu do General de Confúcio·Ji": "A boca do tigre saiu do escorpião" Agora, todos os tipos de GPTs, como tigres, escaparam de suas jaulas. Como Yuval Noah Harari, autor de "Uma Breve História do Futuro", disse: A inteligência artificial está dominando a linguagem com uma capacidade que excede o nível humano médio. Ao dominar a linguagem, a inteligência artificial já tem a capacidade de criar relacionamentos íntimos com centenas de milhões de pessoas em larga escala e detém a chave para invadir o sistema da civilização humana. Ele ainda alertou: A maior diferença entre armas nucleares e inteligência artificial é que as armas nucleares não podem criar armas nucleares mais poderosas. Mas **IA pode produzir uma IA mais poderosa, então precisamos agir rapidamente antes que a IA fique fora de controle. **
No dia 22 de março, o Future of Life Institute (Future of Life) emitiu uma carta aberta a toda a sociedade intitulada "Suspensão da Pesquisa de Inteligência Artificial Gigante: Uma Carta Aberta", conclamando todos os laboratórios de inteligência artificial a suspender imediatamente a comparação de GPT- 4 Treinamento de sistemas de IA mais potentes com pausa de pelo menos 6 meses. Landon Klein, diretor de política dos EUA no Future of Life Institute, disse: "Vemos o momento atual como semelhante ao início da era nuclear ..." Esta carta aberta foi apoiada por mais de mil pessoas, incluindo Elon Musk (fundador da Tesla), Sam Altman (CEO da OpenAI), Joshua Bengio (vencedor do Turing Award 2018) e outras pessoas famosas.
Se muitas pessoas percebem que estamos prestes a entrar em uma era de "proliferação nuclear de IA", então realmente precisamos explorar uma possibilidade. Essa possibilidade é estabelecer uma organização internacional semelhante à Agência Internacional de Energia Atômica, cujo objetivo é supervisionar todas as empresas de inteligência artificial, com base no número de GPUs que usam, consumo de energia e outros indicadores. Os sistemas que excedem os limites de capacidade estão sujeitos a auditoria. Por meio de organizações internacionais como esta, podemos trabalhar juntos para garantir que as tecnologias de IA tragam benefícios para a humanidade, em vez de possíveis danos.
Alguns cientistas defendem que, ao avançar na pesquisa e aplicação da inteligência artificial, é necessário evitar que o sistema de inteligência artificial exceda o controle humano. Eles fizeram uma série de metáforas para descrever a catástrofe que estava se desenrolando, incluindo "uma criança de 10 anos tentou jogar xadrez com Stockfish 15", "o século 11 tentou lutar contra o século 21" e "Australopithecus tentou lutar contra o Homo sapiens". Esses cientistas querem que paremos de imaginar a AGI como "um pensador inanimado que vive na Internet". Em vez disso, imagine-os como uma civilização alienígena inteira pensando um milhão de vezes mais rápido que os humanos. É que inicialmente eles estavam confinados aos computadores.
No entanto, alguns cientistas estão otimistas. Na opinião deles, o desenvolvimento e a pesquisa da inteligência artificial devem continuar a promover o progresso científico e a inovação tecnológica. Eles compararam que se na época em que o carro nasceu, se um cocheiro propusesse que o motorista fosse suspenso da direção por 6 meses. Olhando para trás agora, esse é o comportamento de um louva-a-deus agindo como um carrinho? Eles acreditam que, por meio de uma abordagem de pesquisa transparente e responsável, os problemas subjacentes podem ser resolvidos e a controlabilidade das tecnologias de IA garantida. Além disso, é através da experimentação e prática contínuas que podemos compreender e responder melhor aos desafios que a inteligência artificial pode trazer.
Recentemente, a Organização Mundial da Saúde (OMS) emitiu um alerta sobre a combinação de inteligência artificial e saúde pública. Eles apontam que confiar em dados gerados por IA para a tomada de decisões pode ser um risco de viés ou de uso indevido. Em comunicado, a OMS disse que é fundamental avaliar os riscos do uso de modelos generativos de linguagem ampla (LLMs), como o ChatGPT, para proteger e promover o bem-estar humano. Eles enfatizam que são necessárias medidas para garantir a precisão, confiabilidade e imparcialidade no uso dessas tecnologias para proteger o interesse público e avançar no campo médico.
Muitos países já tomaram medidas para regulamentar o campo da inteligência artificial. Em 31 de março, a Agência Italiana de Proteção de Dados Pessoais anunciou que o uso do ChatGPT será temporariamente banido a partir de agora. Ao mesmo tempo, os funcionários da UE também estão trabalhando em um novo projeto de lei chamado "Lei de Inteligência Artificial (AI Act)", que inclui: proibir o uso de serviços específicos de inteligência artificial e formular normas legais relacionadas.
O Departamento de Comércio dos EUA emitiu um aviso para solicitar comentários públicos, incluindo: se novos modelos de inteligência artificial que representam risco de danos precisam ser revisados antes de serem lançados. Ao mesmo tempo, o Departamento de Comércio também prometeu reprimir produtos prejudiciais de inteligência artificial que violam os direitos civis e as leis de proteção ao consumidor.
Em 16 de maio, o CEO e cofundador da OpenAI, Sam Altman, participou pela primeira vez da audiência do Congresso dos EUA, falando sobre os perigos potenciais da tecnologia de inteligência artificial. Ele admitiu que, à medida que a inteligência artificial avança, há preocupação e ansiedade sobre como isso mudará a maneira como vivemos. Para este fim, ele acredita que a intervenção do governo pode impedir a inteligência artificial de "auto-replicação selvagem e auto-infiltração". Ele propôs a criação de um órgão regulador totalmente novo que implementaria as salvaguardas necessárias e emitiria licenças para sistemas de IA, com poder para revogá-las.
Na audiência, Altman foi questionado sobre qual era sua maior preocupação com o potencial da inteligência artificial. Ele não detalhou, dizendo apenas que "se essa tecnologia der errado, pode dar muito errado" e pode "causar danos significativos ao mundo" .
Antes desta audiência, as medidas regulatórias e de controle da China no campo da inteligência artificial também atraíram atenção generalizada. Em 11 de abril, a fim de promover o desenvolvimento saudável e a aplicação padronizada da tecnologia de inteligência artificial generativa, de acordo com a "Lei de Segurança de Rede da República Popular da China" e outras leis e regulamentos, a Administração do Ciberespaço da China elaborou o "Management Medidas para Serviços de Inteligência Artificial Generativa (Rascunho para Comentário)" ". Essa abordagem esclarece a atitude de apoio e incentivo para a indústria de inteligência artificial generativa, por exemplo, "O estado apóia a inovação independente, promoção e aplicação e cooperação internacional de tecnologias básicas, como algoritmos e estruturas de inteligência artificial, e incentiva a adoção prioritária de software e ferramentas seguros e confiáveis, recursos de computação e dados.”
O projeto de parecer exige que o conteúdo gerado pela inteligência artificial generativa reflita os valores centrais do socialismo e não contenha subversão do poder do Estado, derrubada do sistema socialista, incitação à divisão do país, minar a unidade nacional, promover o terrorismo, extremismo, promover ódio étnico, discriminação étnica, violência, informações obscenas e pornográficas, informações falsas e conteúdos que possam perturbar a ordem econômica e social. A minuta do parecer também exige que os fornecedores declarem avaliações de segurança, tomem medidas para prevenir a discriminação e respeitem os direitos de privacidade.
As medidas coletivas tomadas por esses países nos lembram que o atual desenvolvimento da inteligência artificial traz grandes oportunidades e desafios. Precisamos urgentemente de diretrizes e regulamentos éticos claros para garantir o uso adequado e a transparência das tecnologias de IA. Enfrentaremos uma série de questões importantes: Como garantir a privacidade e a segurança dos dados? Como lidar com o viés algorítmico e a injustiça? Como garantir a transparência e a explicabilidade da tomada de decisão da inteligência artificial? Essas questões precisam ser respondidas por meio de regulamentos e instituições claras.
Enquanto escrevo isso, meus pensamentos inexplicavelmente saltam para o primeiro parágrafo do poema intitulado "The Long Season" no recente popular drama doméstico "The Long Season":
estalar os dedos, ele disse
Vamos estalar os dedos
coisas distantes serão quebradas
As pessoas na minha frente ainda não sabem disso
Aqui, quero fazer uma previsão ousada: quando 2024 chegar e viermos a selecionar a palavra do ano de 2023, o ChatGPT será uma das dez palavras mais quentes, podendo até se tornar a palavra do ano ou pessoa do ano. .
Vamos detalhar a palavra "IA". Se A significa Anjo (Anjo), então eu posso representar Diabo (Iblis). Hoje, a tecnologia de inteligência artificial está se desenvolvendo rapidamente, mostrando uma incrível relação simbiótica entre "anjos e demônios". Diante dessa realidade, precisamos agir com um objetivo - "vamos desfrutar de uma longa e dourada colheita de inteligência artificial, em vez de cair despreparados em um inverno frio".
(O autor Hu Yi, um trabalhador de big data que gosta de imaginar o futuro.)
Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
Opinião | A espada de dois gumes da inteligência artificial geral: controlando o desenvolvimento e evitando crises
Autor: Hu Yi
Fonte: O Papel See More
Recentemente, Sébastien Bubeck, chefe do Machine Learning Theory Group no Microsoft Redmond Research Institute, e Li Yuanzhi, vencedor do Sloan Research Award de 2023, publicaram um artigo com grande atenção. O artigo, intitulado "The Spark of General Artificial Intelligence: Early Experiments with GPT-4", tem 154 páginas. Algumas pessoas boas descobriram no código-fonte do LaTex que o título original era na verdade "First Contact with AGI".
A publicação deste artigo marca um marco importante no campo da pesquisa em inteligência artificial. Ele fornece informações valiosas sobre nossa profunda compreensão do desenvolvimento e aplicação da inteligência artificial geral (AGI). Ao mesmo tempo, o título original do artigo, "First Contact with AGI", também destaca a importância e o futuro da exploração da inteligência artificial geral.
Eu li pacientemente a versão traduzida deste artigo. Para ser sincero, meio entendo e meio não entendo, e não sei o que está acontecendo. Deixe-me primeiro apresentar a proposição central deste artigo: GPT-4 apresenta uma forma de inteligência geral, florescendo a centelha da inteligência artificial geral. Isso se manifesta em suas habilidades mentais centrais (como raciocínio, criatividade e dedução), na variedade de tópicos nos quais adquire experiência (como literatura, medicina e codificação) e na variedade de tarefas que pode realizar (como jogar, usar ferramentas, explicar-se, etc.).
Depois de ler este artigo, revisitei meu artigo "O futuro pode ser esperado|Pintura de inteligência artificial: deixe todos se tornarem artistas". Eu me fiz uma pergunta: é um pouco restrito classificar modelos grandes como o ChatGPT em conteúdo gerado por inteligência artificial (AIGC) antes? Como afirmou o artigo da Microsoft Research, o GPT-4 não é apenas AIGC, é mais como o protótipo da inteligência artificial geral.
Antes de explicar o que significa AGI, deixe-me dizer aos leitores da coluna "Futuro Esperado" do The Paper as três palavras ANI, AGI e ASI.
A Inteligência Artificial (IA) costuma ser dividida em três níveis:
① Inteligência artificial fraca (Artificial Narrow Intelligence, ANI);
② Inteligência Geral Artificial (AGI);
③ Superinteligência Artificial (ASI).
A seguir, apresentarei brevemente as diferenças e o desenvolvimento desses três níveis.
①Inteligência artificial fraca (ANI):
IA fraca é de longe a forma mais comum de IA. Ele se concentra na execução de uma única tarefa ou na resolução de um problema em um domínio específico. Por exemplo, reconhecimento de imagem, reconhecimento de voz, tradução automática, etc. Tais sistemas inteligentes podem ser melhores do que os humanos em certas tarefas, mas só podem funcionar de forma limitada e não podem lidar com os problemas para os quais não foram projetados para resolver. Existem muitos produtos e serviços inteligentes no mercado hoje, como assistentes virtuais (Siri, Microsoft Xiaoice, etc.), alto-falantes inteligentes (Tmall Genie, Xiaoai Speaker, etc.) e AlphaGo, todos pertencentes à categoria de fracos inteligência artificial. A limitação da inteligência artificial fraca é que ela carece de compreensão abrangente e capacidade de julgamento e só pode ter um bom desempenho em tarefas específicas.
Com o desenvolvimento contínuo de big data, algoritmos e poder de computação, a fraca inteligência artificial está gradualmente penetrando em todas as áreas de nossa vida diária. Nas áreas de finanças, assistência médica, educação, entretenimento, etc., testemunhamos muitos casos de aplicação bem-sucedidos.
②Inteligência Artificial Geral (AGI):
A inteligência artificial geral, também conhecida como inteligência artificial forte, refere-se à inteligência artificial que possui a mesma inteligência que os humanos e pode realizar todos os comportamentos inteligentes dos humanos normais. Isso significa que a AGI pode aprender, entender, adaptar e resolver problemas em vários campos, assim como os humanos. Ao contrário do ANI, o AGI pode concluir de forma independente uma variedade de tarefas, não apenas limitadas a um campo específico. Atualmente, acredita-se que a inteligência geral artificial ainda não foi alcançada, mas muitas empresas de tecnologia e cientistas estão trabalhando duro para se aproximar desse objetivo.
③ Super Inteligência Artificial (ASI):
Super inteligência artificial refere-se a um sistema de inteligência artificial que supera em muito a inteligência humana em vários campos. Ele pode não apenas concluir várias tarefas que os humanos podem concluir, mas também superar os humanos em termos de criatividade, capacidade de tomada de decisão e velocidade de aprendizado. O surgimento da ASI pode desencadear muitos avanços tecnológicos e mudanças sociais sem precedentes e resolver problemas difíceis que os humanos não conseguem resolver.
No entanto, a ASI também traz consigo uma série de riscos potenciais. Por exemplo, pode levar à perda de valor e dignidade humana, desencadear o abuso e uso indevido da inteligência artificial e pode até levar à rebelião da inteligência artificial e outros problemas.
Acontece que sempre acreditamos que a tecnologia de inteligência artificial, da inteligência artificial fraca à inteligência artificial geral e à superinteligência artificial, passará por um longo e complicado processo de desenvolvimento. Nesse processo, temos tempo suficiente para fazer diversos preparativos, que vão desde leis e regulamentos até o preparo psicológico de cada indivíduo. Recentemente, no entanto, tenho um forte pressentimento de que podemos estar a apenas alguns passos de ter uma inteligência artificial geral, e isso pode levar apenas 20 anos ou menos. Se alguns dizem que o processo levará apenas 5 a 10 anos, eu não descartaria completamente.
A OpenAI mencionou em seu "Planning and Outlook to AGI": "AGI tem o potencial de trazer novos recursos incríveis para todos. Podemos imaginar um mundo onde todos nós podemos obter quase qualquer ajuda em tarefas cognitivas, fornecendo um enorme multiplicador de força para humanos inteligência e criatividade”.
No entanto, este plano enfatiza um processo de "transição gradual", em vez de enfatizar demais os poderosos recursos da AGI. “Dar às pessoas, formuladores de políticas e instituições tempo para entender o que está acontecendo, para experimentar por si mesmos o bom e o ruim desses sistemas, para ajustar nossa economia e colocar a regulamentação em vigor”.
Na minha opinião, a mensagem subjacente transmitida por esta passagem é que a tecnologia que leva à AGI já existe. No entanto, para permitir que a sociedade humana tenha um processo de adaptação, a OpenAI está deliberadamente diminuindo o ritmo do progresso tecnológico. Eles pretendem equilibrar o progresso tecnológico e a prontidão da sociedade humana, permitindo mais tempo para discussões legais, éticas e de adaptação social, e tomando as medidas necessárias para lidar com os desafios que possam surgir.
Existe uma frase em "Os Analectos da Conquista de Zhuanyu do General de Confúcio·Ji": "A boca do tigre saiu do escorpião" Agora, todos os tipos de GPTs, como tigres, escaparam de suas jaulas. Como Yuval Noah Harari, autor de "Uma Breve História do Futuro", disse: A inteligência artificial está dominando a linguagem com uma capacidade que excede o nível humano médio. Ao dominar a linguagem, a inteligência artificial já tem a capacidade de criar relacionamentos íntimos com centenas de milhões de pessoas em larga escala e detém a chave para invadir o sistema da civilização humana. Ele ainda alertou: A maior diferença entre armas nucleares e inteligência artificial é que as armas nucleares não podem criar armas nucleares mais poderosas. Mas **IA pode produzir uma IA mais poderosa, então precisamos agir rapidamente antes que a IA fique fora de controle. **
No dia 22 de março, o Future of Life Institute (Future of Life) emitiu uma carta aberta a toda a sociedade intitulada "Suspensão da Pesquisa de Inteligência Artificial Gigante: Uma Carta Aberta", conclamando todos os laboratórios de inteligência artificial a suspender imediatamente a comparação de GPT- 4 Treinamento de sistemas de IA mais potentes com pausa de pelo menos 6 meses. Landon Klein, diretor de política dos EUA no Future of Life Institute, disse: "Vemos o momento atual como semelhante ao início da era nuclear ..." Esta carta aberta foi apoiada por mais de mil pessoas, incluindo Elon Musk (fundador da Tesla), Sam Altman (CEO da OpenAI), Joshua Bengio (vencedor do Turing Award 2018) e outras pessoas famosas.
Se muitas pessoas percebem que estamos prestes a entrar em uma era de "proliferação nuclear de IA", então realmente precisamos explorar uma possibilidade. Essa possibilidade é estabelecer uma organização internacional semelhante à Agência Internacional de Energia Atômica, cujo objetivo é supervisionar todas as empresas de inteligência artificial, com base no número de GPUs que usam, consumo de energia e outros indicadores. Os sistemas que excedem os limites de capacidade estão sujeitos a auditoria. Por meio de organizações internacionais como esta, podemos trabalhar juntos para garantir que as tecnologias de IA tragam benefícios para a humanidade, em vez de possíveis danos.
Alguns cientistas defendem que, ao avançar na pesquisa e aplicação da inteligência artificial, é necessário evitar que o sistema de inteligência artificial exceda o controle humano. Eles fizeram uma série de metáforas para descrever a catástrofe que estava se desenrolando, incluindo "uma criança de 10 anos tentou jogar xadrez com Stockfish 15", "o século 11 tentou lutar contra o século 21" e "Australopithecus tentou lutar contra o Homo sapiens". Esses cientistas querem que paremos de imaginar a AGI como "um pensador inanimado que vive na Internet". Em vez disso, imagine-os como uma civilização alienígena inteira pensando um milhão de vezes mais rápido que os humanos. É que inicialmente eles estavam confinados aos computadores.
No entanto, alguns cientistas estão otimistas. Na opinião deles, o desenvolvimento e a pesquisa da inteligência artificial devem continuar a promover o progresso científico e a inovação tecnológica. Eles compararam que se na época em que o carro nasceu, se um cocheiro propusesse que o motorista fosse suspenso da direção por 6 meses. Olhando para trás agora, esse é o comportamento de um louva-a-deus agindo como um carrinho? Eles acreditam que, por meio de uma abordagem de pesquisa transparente e responsável, os problemas subjacentes podem ser resolvidos e a controlabilidade das tecnologias de IA garantida. Além disso, é através da experimentação e prática contínuas que podemos compreender e responder melhor aos desafios que a inteligência artificial pode trazer.
Recentemente, a Organização Mundial da Saúde (OMS) emitiu um alerta sobre a combinação de inteligência artificial e saúde pública. Eles apontam que confiar em dados gerados por IA para a tomada de decisões pode ser um risco de viés ou de uso indevido. Em comunicado, a OMS disse que é fundamental avaliar os riscos do uso de modelos generativos de linguagem ampla (LLMs), como o ChatGPT, para proteger e promover o bem-estar humano. Eles enfatizam que são necessárias medidas para garantir a precisão, confiabilidade e imparcialidade no uso dessas tecnologias para proteger o interesse público e avançar no campo médico.
Muitos países já tomaram medidas para regulamentar o campo da inteligência artificial. Em 31 de março, a Agência Italiana de Proteção de Dados Pessoais anunciou que o uso do ChatGPT será temporariamente banido a partir de agora. Ao mesmo tempo, os funcionários da UE também estão trabalhando em um novo projeto de lei chamado "Lei de Inteligência Artificial (AI Act)", que inclui: proibir o uso de serviços específicos de inteligência artificial e formular normas legais relacionadas.
O Departamento de Comércio dos EUA emitiu um aviso para solicitar comentários públicos, incluindo: se novos modelos de inteligência artificial que representam risco de danos precisam ser revisados antes de serem lançados. Ao mesmo tempo, o Departamento de Comércio também prometeu reprimir produtos prejudiciais de inteligência artificial que violam os direitos civis e as leis de proteção ao consumidor.
Em 16 de maio, o CEO e cofundador da OpenAI, Sam Altman, participou pela primeira vez da audiência do Congresso dos EUA, falando sobre os perigos potenciais da tecnologia de inteligência artificial. Ele admitiu que, à medida que a inteligência artificial avança, há preocupação e ansiedade sobre como isso mudará a maneira como vivemos. Para este fim, ele acredita que a intervenção do governo pode impedir a inteligência artificial de "auto-replicação selvagem e auto-infiltração". Ele propôs a criação de um órgão regulador totalmente novo que implementaria as salvaguardas necessárias e emitiria licenças para sistemas de IA, com poder para revogá-las.
Na audiência, Altman foi questionado sobre qual era sua maior preocupação com o potencial da inteligência artificial. Ele não detalhou, dizendo apenas que "se essa tecnologia der errado, pode dar muito errado" e pode "causar danos significativos ao mundo" .
Antes desta audiência, as medidas regulatórias e de controle da China no campo da inteligência artificial também atraíram atenção generalizada. Em 11 de abril, a fim de promover o desenvolvimento saudável e a aplicação padronizada da tecnologia de inteligência artificial generativa, de acordo com a "Lei de Segurança de Rede da República Popular da China" e outras leis e regulamentos, a Administração do Ciberespaço da China elaborou o "Management Medidas para Serviços de Inteligência Artificial Generativa (Rascunho para Comentário)" ". Essa abordagem esclarece a atitude de apoio e incentivo para a indústria de inteligência artificial generativa, por exemplo, "O estado apóia a inovação independente, promoção e aplicação e cooperação internacional de tecnologias básicas, como algoritmos e estruturas de inteligência artificial, e incentiva a adoção prioritária de software e ferramentas seguros e confiáveis, recursos de computação e dados.”
O projeto de parecer exige que o conteúdo gerado pela inteligência artificial generativa reflita os valores centrais do socialismo e não contenha subversão do poder do Estado, derrubada do sistema socialista, incitação à divisão do país, minar a unidade nacional, promover o terrorismo, extremismo, promover ódio étnico, discriminação étnica, violência, informações obscenas e pornográficas, informações falsas e conteúdos que possam perturbar a ordem econômica e social. A minuta do parecer também exige que os fornecedores declarem avaliações de segurança, tomem medidas para prevenir a discriminação e respeitem os direitos de privacidade.
As medidas coletivas tomadas por esses países nos lembram que o atual desenvolvimento da inteligência artificial traz grandes oportunidades e desafios. Precisamos urgentemente de diretrizes e regulamentos éticos claros para garantir o uso adequado e a transparência das tecnologias de IA. Enfrentaremos uma série de questões importantes: Como garantir a privacidade e a segurança dos dados? Como lidar com o viés algorítmico e a injustiça? Como garantir a transparência e a explicabilidade da tomada de decisão da inteligência artificial? Essas questões precisam ser respondidas por meio de regulamentos e instituições claras.
Enquanto escrevo isso, meus pensamentos inexplicavelmente saltam para o primeiro parágrafo do poema intitulado "The Long Season" no recente popular drama doméstico "The Long Season":
estalar os dedos, ele disse
Vamos estalar os dedos
coisas distantes serão quebradas
As pessoas na minha frente ainda não sabem disso
Aqui, quero fazer uma previsão ousada: quando 2024 chegar e viermos a selecionar a palavra do ano de 2023, o ChatGPT será uma das dez palavras mais quentes, podendo até se tornar a palavra do ano ou pessoa do ano. .
Vamos detalhar a palavra "IA". Se A significa Anjo (Anjo), então eu posso representar Diabo (Iblis). Hoje, a tecnologia de inteligência artificial está se desenvolvendo rapidamente, mostrando uma incrível relação simbiótica entre "anjos e demônios". Diante dessa realidade, precisamos agir com um objetivo - "vamos desfrutar de uma longa e dourada colheita de inteligência artificial, em vez de cair despreparados em um inverno frio".
(O autor Hu Yi, um trabalhador de big data que gosta de imaginar o futuro.)