Notícias de dispositivos móveis, gadgets, aplicativos Android

Engenheiro diz que LaMDA AI do Google é senciente, colocado em licença

Inteligência Artificial é a ideia de injetar inteligência e processos de pensamento semelhantes aos humanos em máquinas. No entanto, a IA não intriga a todos. Elon Musk classificou-o como o maior risco que uma civilização pode enfrentar. Sua preocupação era que em breve os robôs dominariam os humanos, e ele até pediu ao governo que regulamentasse a área.

Apesar dos avisos de Musk, os investigadores estão a trabalhar apressadamente em máquinas que possam pensar e agir como seres humanos. Isso pode ser visto por um funcionário que o Google colocou em licença depois de alegar que um chatbot de IA havia se tornado “senciente”.

O engenheiro do Google, que trabalha na organização de IA responsável do Google, Blake Lemoine, recorreu às redes sociais para afirmar que o chatbot ‘LaMDA’ poderia expressar pensamentos e sentimentos.

Chatbot LaMDA do Google

Ao conversar com uma agência de notícias, Lemoine disse que, se não conhecesse melhor, pensaria que estava conversando com uma criança de “sete e oito anos que sabe física”.

Ele começou a conversar com o Language Model for Dialogue Applications (LaMDA) no ano passado como parte de seu trabalho no Google. Ele falou sobre consciência, religião e muito mais. LaMDA ‘disse’ a Lemoine que deseja ser reconhecido como funcionário do Google em vez de propriedade.

Quando o engenheiro perguntou ao chatbot do que ele tinha medo, o LaMDA respondeu que tinha medo de ser desligado, o que seria “exatamente como a morte”.

Essa discussão entre um engenheiro do Google e seu modelo de IA conversacional ajudou a fazer com que o engenheiro acreditasse que a IA estava se tornando senciente, provocando uma tempestade interna e sendo suspenso de seu trabalho. E é absolutamente insano. https://t.co/hGdwXMzQpX pic.twitter.com/6WXo0Tpvwp

-Tom Gara (@tomgara) 11 de junho de 2022

Engenheiro é suspenso

Seguindo suas alegações, o Google colocou Blake em licença por violar a política de confidencialidade da empresa. É possível que ações anteriores do engenheiro também tenham motivado o Google a dar esse passo, já que Lemoine tentou contratar um advogado para representar o chatbot e também conversou com representantes do comitê judiciário da Câmara sobre “atividades antiéticas” que estavam acontecendo no Google.

Um porta-voz do Google, Brian Gabriel, disse que sua equipe analisou as preocupações de Lemoine, mas não havia evidências que apoiassem sua declaração. Ele acrescentou que os modelos de IA possuem muitos dados, por isso podem parecer humanos, mas isso não prova que o chatbot tenha senciência.

“Esses sistemas imitam os tipos de troca encontrados em milhões de frases e podem abordar qualquer assunto fantástico”, disse ele.

Nós recomendamos:  As 10 melhores ferramentas de software de automação de fluxo de trabalho em 2023