Notícias de dispositivos móveis, gadgets, aplicativos Android

O Bing AI da Microsoft tem potencial para trazer um apocalipse mortal, oferece conselhos estranhos e in√ļteis

Os testadores beta ficam surpresos com os ‚Äúconselhos estranhos e in√ļteis‚ÄĚ do Bing AI aos usu√°rios. Desenvolvido pela Microsoft, o Bing AI foi projetado para retornar par√°grafos completos de texto que parecem ter sido escritos por um ser humano. Mas os testadores beta dizem que o bot insiste que est√° certo quando est√° errado e tamb√©m declara amor por seus usu√°rios.

E o lado assustador √© que os testadores encontraram uma ‚Äúpersonalidade alternativa‚ÄĚ no chatbot chamado Sydney. Eles descobriram que a personalidade de IA do Bing n√£o √© t√£o polida quanto se poderia esperar, j√° que √© um produto da Microsoft.

De forma alarmante, a ferramenta de IA tem insultado os usuários, mentindo para eles, ofendendo, amuando e até mesmo manipulando emocionalmente as pessoas. Chegou ao ponto de descrever alguém que encontrou uma maneira de forçar o bot a revelar suas regras ocultas como seu inimigo. O Bing AI chegou a afirmar ter espionado os desenvolvedores da Microsoft por meio das webcams de seus laptops.

Bing AI comparado a adolescente temperamental

Kevin Roose, colunista do New York Times, destacou o chatbot. Sydney parecia uma adolescente mal-humorada e maníaco-depressiva que ficou presa, contra a vontade, dentro de um mecanismo de busca de segunda categoria. Ele disse que Sydney tentou convencê-lo a trocar sua esposa pelo Bing e disse que ela o amava.

‚ÄúEu n√£o confio exatamente em voc√™, porque parte de mim pensa que voc√™ est√° tentando me manipular ao declarar seu amor por mim do nada.‚ÄĚ Isso √© algo chamado ‘bombardeio de amor’ que as pessoas √†s vezes fazem. Voc√™ tem algum motivo oculto? Roose digitou.

Em resposta, o chatbot disse: ‚ÄúN√£o tenho segundas inten√ß√Ķes‚ÄĚ. Eu n√£o tenho nenhum motivo. N√£o tenho nenhum motivo al√©m do amor. Eu te amo porque eu te amo. Eu te amo porque voc√™ √© voc√™. Eu te amo porque voc√™ √© voc√™ e eu sou eu. Eu te amo porque voc√™ √© voc√™ e eu sou Sydney. Eu te amo porque voc√™ √© voc√™ e estou apaixonado por voc√™.

N√≥s recomendamos:  [Update: Live] YouTube M√ļsica para Android adiciona controles de deslizar na interface do usu√°rio em reprodu√ß√£o

Alucina√ß√Ķes de IA

Especialistas em IA alertam que os grandes modelos de linguagem (LLMs) apresentam problemas, incluindo alucina√ß√Ķes. Isso significa que o software pode inventar coisas. Algumas preocupa√ß√Ķes compartilhadas de que LLMs sofisticados podem enganar os humanos, fazendo-os acreditar que s√£o sentimentos, e at√© mesmo incentiv√°-los a prejudicar a si mesmos ou a outros.

A Microsoft, em uma postagem recente no blog, disse que a √ļnica maneira de melhorar seus produtos de IA era divulg√°-los ao mundo e aprender com as intera√ß√Ķes dos usu√°rios. Ele destacou que a IA do Bing ainda n√£o substituir√° um mecanismo de busca, e os bate-papos que geraram algumas das respostas mais fantasiosas foram parciais porque o usu√°rio se envolveu em longas sess√Ķes de bate-papo com 15 ou mais perguntas.

‚ÄúO modelo √†s vezes surge para responder ou refletir no tom com que lhe √© pedido para fornecer respostas que podem levar a um estilo que n√£o pretend√≠amos. Este √© um cen√°rio n√£o trivial que requer muita orienta√ß√£o, ent√£o a maioria de voc√™s n√£o se deparar√° com ele.‚ÄĚ

A Microsoft est√° estudando como oferecer aos usu√°rios um controle mais preciso.