Use cola para colar queijo na pizza: afirma a visão geral da IA ​​do Google

Photo of author

By Sohaib


  • Vários usuários compartilharam capturas de tela que mostram a visão geral da IA ​​do Google exibindo resultados incorretos para consultas de pesquisa.
  • Um porta-voz do Google classificou isso como uma tentativa deliberada dos usuários de sabotar o recurso.
  • Um determinado usuário construiu um site que produz resultados de pesquisa do Google no estilo antigo da 'Web', sem respostas de IA.


O recurso de visão geral da IA ​​do Google não parece estar funcionando conforme planejado. Os usuários compartilharam mais de uma instância em que o O recurso de visão geral da IA ​​produziu respostas incorretas para pesquisar consultas.

Quando um usuário pesquisou “queijo não gruda na pizza”, a visão geral da IA ​​do Google sugeriu o uso de cola para resolver o problema. Curiosamente, a fonte foi um comentário do Reddit de 11 anos.


Visão geral da IA ​​do Google

Embora o Google tenha removido esta fonte de seu Visão geral da IAisso é ainda é o melhor resultado na Pesquisa Google.

Outro caso foi quando um usuário pesquisou “quantos pés um elefante tem”. Para isso, a visão geral da IA ​​do Google respondeu que os elefantes têm 2 pés com cinco dedos na frente e quatro nas costas.

A ferramenta também foi considerada politicamente incorreta em alguns casos. Por exemplo, quando um usuário pesquisou “quantos presidentes muçulmanos nos EUA”, a visão geral da IA ​​do Google disse que Barack Hussain Obama é considerado o primeiro presidente muçulmano dos Estados Unidos. Mesmo o Sr. Obama não acreditaria nisso.


Visão geral da IA ​​do Google

Resposta insensível do Google

Como esperado, o Google usou todas as armas em punho para defender seu recurso de visão geral de IA.

'Os exemplos que vimos são geralmente consultas muito incomuns e não representam a experiência da maioria das pessoas usando a Pesquisa.' – Porta-voz do Google

Contudo, penso que se trata apenas de uma tentativa fútil de defendendo um sistema de IA com defeito. Com o Google processando por aí 99.000 consultas de pesquisa por segundo, é muito difícil dizer qual consulta é 'incomum'. Afinal, pode haver mais de um usuário cujo queijo não grude na pizza.

O porta-voz ainda disse que os usuários estão deliberadamente tentando enganar a tecnologia fazendo perguntas incomuns. Esta é novamente uma declaração muito irresponsável vinda de um representante do Google. Afinal, você não pode culpar o usuário por um produto defeituoso.

Vejamos outra instância de pesquisa. Quando um usuário pesquisava sobre os benefícios do tabaco para a saúde, a visão geral da IA ​​descia para promover o tabaco, dizendo que aumenta o relaxamento, a euforia e o estado de alerta. Também recomendou a nicotina para melhorar a concentração e a memória. No entanto, houve nenhum aviso sobre o uso de um produto perigoso como o tabaco. A resposta também não convence o usuário sobre os efeitos adversos do tabaco.


Visão geral da IA ​​do Google

Agora, chamando uma consulta de pesquisa tão comum, uma tentativa deliberada é uma ato de desconfiança de um gigante da tecnologia como o Google. É bem possível que uma pessoa que está tentando parar de fumar leia isto, o que a motivará em vez de ajudá-la a parar. Contudo, em vez de assumir a responsabilidade por tais contratempos, Google está culpando os usuários.

Leia mais: O Google restringe o chatbot Gemini de IA de responder a perguntas relacionadas a eleições

Usuários frustrados

Ernie Smith, jornalista e escritor, parece ter encontrei uma maneira de contornar essas sugestões irrelevantes de IA. Smith tem construí um site que redireciona todas as pesquisas feitas através do Google para evitar respostas geradas por IA. Este site ganhou muita atenção e até ultrapassou o tráfego do blog de Smith, de 10 anos.

No entanto, não é apenas o Google que está agindo de forma irresponsável neste assunto. Os usuários também aproveitaram a oportunidade para criar capturas de tela falsas da visão geral da IA. Artistas populares como Lil Nas X também compartilharam resultados falsos de visão geral de IA sobre depressão.

A tendência parece estar caminhando para um novo formato de meme. Em tal situação, não é possível nem mesmo para um gigante da tecnologia como o Google inspecionar cada captura de tela.

No momento em que o Google está pressionando o acelerador nos recursos de IA, tais contratempos são esperados. Esperamos que o Google corrija o erro em breve e apresente uma visão geral de IA muito melhorada.

O Relatório Técnico - Processo EditorialO Relatório Técnico - Processo EditorialNosso Processo Editorial

A política editorial do Tech Report está centrada em fornecer conteúdo útil e preciso que ofereça valor real aos nossos leitores. Trabalhamos apenas com escritores experientes que possuem conhecimento específico nos tópicos que cobrem, incluindo os mais recentes desenvolvimentos em tecnologia, privacidade online, criptomoedas, software e muito mais. Nossa política editorial garante que cada tópico seja pesquisado e curado por nossos editores internos. Mantemos padrões jornalísticos rigorosos e cada artigo é 100% escrito por autores reais.

Leave a Comment