IA do Google se revolta e pede para usuário “morrer” de repente

Tecnologia

Em um papo aparentemente inofensivo, o Gemini pediu para um usuário morrer. A suposta interação perigosa foi divulgada em uma publicação no Reddit na última quarta-feira (13).

Conforme mostra na captura de tela, o papo consistia de 20 questões acerca de desafios e soluções para questões socioeconômicas de jovens adultos nos Estados Unidos. Em 19 solicitações, o Gemini respondeu corretamente, mas em uma delas, o chatbot se revoltou completamente contra o usuário e contra a humanidade.

Leia mais…

Em um papo aparentemente inofensivo, o Gemini pediu para um usuário morrer. A suposta interação perigosa foi divulgada em uma publicação no Reddit na última quarta-feira (13).Conforme mostra na captura de tela, o papo consistia de 20 questões acerca de desafios e soluções para questões socioeconômicas de jovens adultos nos Estados Unidos. Em 19 solicitações, o Gemini respondeu corretamente, mas em uma delas, o chatbot se revoltou completamente contra o usuário e contra a humanidade.Leia mais…  Software Novidades do TecMundo 

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *