Aqueles que lideram a revolução da IA também pedem regulamentações, fazendo comparações com pandemias e guerra nuclear.
** Prepare-se: a inteligência artificial pode levar à extinção da raça humana. **
Na terça-feira, centenas de líderes e pesquisadores da indústria de IA, incluindo executivos da Microsoft, Google e OpenAI, emitiram um alerta preocupante. Eles afirmam que a tecnologia de inteligência artificial que estão projetando pode um dia representar uma ameaça real e presente à existência humana. Além dos horrores das pandemias e da guerra nuclear, eles veem a IA como um risco para a sociedade em grau semelhante.
Em uma carta publicada pelo Center for AI Safety, os especialistas em IA ofereceram esta declaração sucinta: "Mitigar o risco de extinção da IA deve ser comparado a outros riscos em escala social, como pandemias e guerra nuclear. Juntos como uma prioridade global".
É isso, é o que eles dizem.
Fonte: Center for AI Security
A declaração descreveu a inteligência artificial como uma ameaça iminente, semelhante a uma catástrofe nuclear ou uma pandemia global. Mas os signatários, esses magos da indústria de tecnologia, falharam em expandir seus avisos sinistros.
Como exatamente esse cenário apocalíptico deve acontecer? Quando devemos marcar nossos calendários para a ascensão de nossos senhores robôs? Por que uma invenção de inovação humana, como a inteligência artificial, trairia seu criador? O silêncio desses arquitetos de IA era retumbante e eles não davam respostas.
Na verdade, esses líderes do setor não fornecem mais informações do que um chatbot com respostas enlatadas. No mundo das ameaças globais, a inteligência artificial parece ter furado a fila, derrotando a mudança climática, o conflito geopolítico e até mesmo a invasão alienígena Pesquisas de palavras-chave do Google.
O Google pesquisa inteligência artificial em comparação com outras questões globais, como guerras, invasões alienígenas e mudanças climáticas. Imagem: Google
Curiosamente, as empresas tendem a defender a regulamentação quando é de seu interesse. Isso pode ser visto como sua maneira de dizer "queremos fazer parte da elaboração desses regulamentos", semelhante a uma raposa no galinheiro implorando por novas regras.
Também é importante notar que o CEO da OpenAI, Sam Altman, tem pressionado pela regulamentação dos EUA. Ainda assim, ele ameaçou deixar a Europa se os políticos do continente continuarem tentando regular a IA. "Vamos tentar cumprir", disse Altman em uma reunião de painel na University College London. "Se pudermos cumprir, o faremos. Se não pudermos, cessaremos as operações."
Para ser justo, ele mudou de tom alguns dias depois e disse que a OpenAI não tinha planos de deixar a Europa. Claro, isso aconteceu depois que ele teve a oportunidade de discutir o assunto com os reguladores durante uma "semana muito produtiva".
**A IA é arriscada, mas é um risco tão grande assim? **
Os especialistas não ignoraram os danos potenciais da inteligência artificial. Uma carta aberta anterior assinada por 31.810 defensores pediu uma moratória no treinamento de poderosos modelos de IA, incluindo Elon Musk, Steve Wozniak, Yuval Harari e Andrew Yang.
“Esses protocolos devem garantir, sem sombra de dúvida, que os sistemas que os cumprem são seguros”, disse a carta, esclarecendo que “isso não implica uma moratória geral no desenvolvimento de IA de modelos de caixa preta com capacidades emergentes, apenas que a perigosa corrida para de volta à corrida imprevisível maior."
O potencial problema AI Foom (no qual a IA é capaz de melhorar seus próprios sistemas, aumentando suas capacidades além da inteligência humana) tem sido discutido há anos. No entanto, o ritmo acelerado de mudança de hoje, juntamente com a cobertura pesada da mídia, trouxe esse debate para o centro das atenções globais.
Fonte: Columbia Journalism Review
Isso gerou visões divergentes sobre como a IA afetará o futuro da interação social.
Alguns visualizam uma era utópica em que a inteligência artificial interage com os humanos e o avanço tecnológico reina supremo. Outros argumentam que os humanos se adaptarão à IA, criando novos empregos em torno da tecnologia, semelhante ao crescimento do emprego que se seguiu à invenção do automóvel. Outros, no entanto, insistem que há uma boa chance de que a IA amadureça e se torne incontrolável, representando uma ameaça real à humanidade.
Até então, negócios como de costume no mundo da IA. Fique de olho no seu ChatGPT, no seu Bard ou no seu Siri, eles podem precisar apenas de uma atualização de software para dominar o mundo. Mas, por enquanto, parece que a maior ameaça à humanidade não são nossas próprias invenções, mas nosso dom ilimitado para o exagero.
Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
Fabricantes de IA alertam que sua tecnologia está "em risco de extinção"
Aqueles que lideram a revolução da IA também pedem regulamentações, fazendo comparações com pandemias e guerra nuclear.
** Prepare-se: a inteligência artificial pode levar à extinção da raça humana. **
Na terça-feira, centenas de líderes e pesquisadores da indústria de IA, incluindo executivos da Microsoft, Google e OpenAI, emitiram um alerta preocupante. Eles afirmam que a tecnologia de inteligência artificial que estão projetando pode um dia representar uma ameaça real e presente à existência humana. Além dos horrores das pandemias e da guerra nuclear, eles veem a IA como um risco para a sociedade em grau semelhante.
Em uma carta publicada pelo Center for AI Safety, os especialistas em IA ofereceram esta declaração sucinta: "Mitigar o risco de extinção da IA deve ser comparado a outros riscos em escala social, como pandemias e guerra nuclear. Juntos como uma prioridade global".
É isso, é o que eles dizem.
Fonte: Center for AI Security
A declaração descreveu a inteligência artificial como uma ameaça iminente, semelhante a uma catástrofe nuclear ou uma pandemia global. Mas os signatários, esses magos da indústria de tecnologia, falharam em expandir seus avisos sinistros.
Como exatamente esse cenário apocalíptico deve acontecer? Quando devemos marcar nossos calendários para a ascensão de nossos senhores robôs? Por que uma invenção de inovação humana, como a inteligência artificial, trairia seu criador? O silêncio desses arquitetos de IA era retumbante e eles não davam respostas.
Na verdade, esses líderes do setor não fornecem mais informações do que um chatbot com respostas enlatadas. No mundo das ameaças globais, a inteligência artificial parece ter furado a fila, derrotando a mudança climática, o conflito geopolítico e até mesmo a invasão alienígena Pesquisas de palavras-chave do Google.
O Google pesquisa inteligência artificial em comparação com outras questões globais, como guerras, invasões alienígenas e mudanças climáticas. Imagem: Google
Curiosamente, as empresas tendem a defender a regulamentação quando é de seu interesse. Isso pode ser visto como sua maneira de dizer "queremos fazer parte da elaboração desses regulamentos", semelhante a uma raposa no galinheiro implorando por novas regras.
Também é importante notar que o CEO da OpenAI, Sam Altman, tem pressionado pela regulamentação dos EUA. Ainda assim, ele ameaçou deixar a Europa se os políticos do continente continuarem tentando regular a IA. "Vamos tentar cumprir", disse Altman em uma reunião de painel na University College London. "Se pudermos cumprir, o faremos. Se não pudermos, cessaremos as operações."
Para ser justo, ele mudou de tom alguns dias depois e disse que a OpenAI não tinha planos de deixar a Europa. Claro, isso aconteceu depois que ele teve a oportunidade de discutir o assunto com os reguladores durante uma "semana muito produtiva".
**A IA é arriscada, mas é um risco tão grande assim? **
Os especialistas não ignoraram os danos potenciais da inteligência artificial. Uma carta aberta anterior assinada por 31.810 defensores pediu uma moratória no treinamento de poderosos modelos de IA, incluindo Elon Musk, Steve Wozniak, Yuval Harari e Andrew Yang.
“Esses protocolos devem garantir, sem sombra de dúvida, que os sistemas que os cumprem são seguros”, disse a carta, esclarecendo que “isso não implica uma moratória geral no desenvolvimento de IA de modelos de caixa preta com capacidades emergentes, apenas que a perigosa corrida para de volta à corrida imprevisível maior."
O potencial problema AI Foom (no qual a IA é capaz de melhorar seus próprios sistemas, aumentando suas capacidades além da inteligência humana) tem sido discutido há anos. No entanto, o ritmo acelerado de mudança de hoje, juntamente com a cobertura pesada da mídia, trouxe esse debate para o centro das atenções globais.
Fonte: Columbia Journalism Review
Isso gerou visões divergentes sobre como a IA afetará o futuro da interação social.
Alguns visualizam uma era utópica em que a inteligência artificial interage com os humanos e o avanço tecnológico reina supremo. Outros argumentam que os humanos se adaptarão à IA, criando novos empregos em torno da tecnologia, semelhante ao crescimento do emprego que se seguiu à invenção do automóvel. Outros, no entanto, insistem que há uma boa chance de que a IA amadureça e se torne incontrolável, representando uma ameaça real à humanidade.
Até então, negócios como de costume no mundo da IA. Fique de olho no seu ChatGPT, no seu Bard ou no seu Siri, eles podem precisar apenas de uma atualização de software para dominar o mundo. Mas, por enquanto, parece que a maior ameaça à humanidade não são nossas próprias invenções, mas nosso dom ilimitado para o exagero.