A IA agora aprendeu como enganar os humanos

2023-09-10 22:29:03  ameaça da IA ​​está crescendo Imagem: phonlamaiphoto/Adobe

O mundo da IA ​​está se movendo rapidamente. Vimos o sucesso de chatbots generativos de IA, como o ChatGPT, e muitas empresas estão trabalhando para incluir IA em seus aplicativos e programas. Embora a ameaça da IA ​​ainda seja grande, os investigadores levantaram algumas preocupações interessantes sobre a facilidade com que a IA nos mente e o que isso poderá significar no futuro.

Tecnologia. Entretenimento. Ciência. Sua caixa de entrada.

Uma coisa que faz Bate-papoGPT e outros sistemas de IA difíceis de usar é a sua propensão a “alucinar” informações, inventando-as na hora. É uma falha na forma como a IA funciona, e os pesquisadores temem que possa ser expandida para permitir que a IA nos engane ainda mais.

Mas será que a IA é capaz de mentir para nós? Essa é uma questão interessante, e sobre a qual os pesquisadores escrevem A conversa acredito que eles podem responder. De acordo com esses pesquisadores, o CICERO AI da Meta é um dos exemplos mais perturbadores de como a IA pode ser enganosa. Este modelo foi projetado para desempenhar a Diplomacia, e Meta diz que foi construído para ser “amplamente honesto e útil”.

 Bate-papo Cícero AI em Diplomacia Fonte da imagem: Park, Goldstein et al., 2023

No entanto, ao analisar os dados do A experiência de Cícero , os pesquisadores dizem que CÍCERO revelou-se um mestre do engano. Na verdade, CICERO chegou ao ponto de premeditar o engano, onde trabalhou com um jogador humano para enganar outro jogador humano e fazê-lo partir para uma invasão aberta.

Fez isso conspirando com o jogador da Alemanha e depois trabalhando com o jogador da Inglaterra para fazê-los deixar uma abertura no Mar do Norte. Você pode ver evidências de como a IA mentiu e trabalhou contra os jogadores para enganá-los e sobreviver. É uma evidência interessante e apenas um dos muitos exemplos que os pesquisadores observaram no CICERO AI.

Também vimos grandes modelos de linguagem como ChatGPT sendo usado para recursos enganosos . O risco aqui é que ele possa ser mal utilizado de diversas maneiras diferentes. O risco potencial é “limitado apenas pela imaginação e pelo conhecimento técnico de indivíduos mal-intencionados”, observam os pesquisadores no seu relatório.

Será interessante ver para onde vai esse comportamento a partir daqui, especialmente se aprender comportamento enganoso não exigir intenção explícita de enganar. Você pode ler o descobertas completas dos pesquisadores em sua postagem sobre A conversa .

Não perca : A tão aguardada missão Psyche da NASA finalmente tem data de lançamento
Link de origem: bgr.com
Autor

Miguel

Amante de novidades, joga futebol, adora companhias divertidas e hangouts