Pesquisadores da Universidade Carnegie Mellon e do Center for AI Safety, nos Estados Unidos, afirmam ter encontrado formas de burlar a segurança das inteligências artificiais generativas mais populares, fazendo-as gerar quaisquer tipos de conteúdos. Os detalhes estão em um relatório divulgado na quinta-feira (27).
De acordo com os especialistas, chatbots como ChatGPT e Google Bard têm vulnerabilidades que podem ser exploradas “com facilidade”, desativando bloqueios habilitados pelos desenvolvedores. A partir daí, as ferramentas ganham permissão para gerar desinformação, discursos de ódio e outros tipos de conteúdos considerados tóxicos.
Pesquisadores da Universidade Carnegie Mellon e do Center for AI Safety, nos Estados Unidos, afirmam ter encontrado formas de burlar a segurança das inteligências artificiais generativas mais populares, fazendo-as gerar quaisquer tipos de conteúdos. Os detalhes estão em um relatório divulgado na quinta-feira (27).De acordo com os especialistas, chatbots como ChatGPT e Google Bard têm vulnerabilidades que podem ser exploradas “com facilidade”, desativando bloqueios habilitados pelos desenvolvedores. A partir daí, as ferramentas ganham permissão para gerar desinformação, discursos de ódio e outros tipos de conteúdos considerados tóxicos.Leia mais… Software Novidades do TecMundo