Fui a uma conferência de desenvolvedores e, por acidente, aprendi algo profundo sobre a natureza humana. Tudo começou inocentemente – a “All Things AI Conference” em Durham, NC, tinha um título bom demais para deixar passar.
O que eu não esperava era ser o único profissional de marketing entre 2.500 desenvolvedores, concordando enquanto Whurly (sim, esse é seu nome verdadeiro), CEO da empresa de computação quântica Strangeworks, mergulhou profundamente na computação quântica e na IA. Eu estava perdendo a cabeça. Mas às vezes é aí que se escondem os melhores insights.
Só quando Luis Lastras, diretor de linguagem e tecnologia multimodal da IBM, começou a falar sobre “modelos pequenos” é que finalmente reconheci algo. Luis disse algo que me impressionou e não percebi: “As alucinações são intencionais”.
Dizer o que?
A resposta é…
Segundo Luis, as alucinações são uma forma de os desenvolvedores aprenderem como funcionam os modelos. Como os modelos operam de forma autônoma, eles não filtram o que produzem – pelo menos não ainda. Pense em deixar seu avô, que perdeu o filtro, solto em um jantar.
É uma das coisas que a IBM aprendeu trabalhando com modelos pequenos. Esses modelos validam seus resultados em determinados pontos à medida que os geram, para reduzir as alucinações.
Qualquer pessoa que tenha trabalhado com IA já teve alucinações – desde fontes inventadas até estatísticas que estão completamente erradas. Lastras disse que são pequenas informações extras que a IA considera úteis, mas que não foram solicitadas imediatamente.
Ele mostrou uma demonstração de um prompt perguntando quantas luas Marte tem, e a resposta retornou com duas e seus nomes, com o acréscimo adicional – a distância da Terra, que não foi solicitada. A distância entre os planetas pode ter sido correta, mas validar isso exigiria mais um passo, então poderia não ser.
Como isso evoluiu
No entanto, os humanos tendem a pensar que a IA está sempre certa.
Num estudo da Universidade Elon realizado com 500 utilizadores de IA (adultos nos EUA) no ano passado, quase 70% acreditavam que os modelos de IA são pelo menos tão inteligentes quanto eles, com 26% acreditando que são “muito mais inteligentes”.
O que é mais preocupante é que acreditamos que a IA pensa como um ser humano. Um artigo do Wall Street Journal, “Até as pessoas inteligentes acreditam que a IA está realmente pensando”, disse: “Nossos preconceitos cognitivos se desenvolveram para nos ajudar a sobreviver em ambientes sociais complexos… (nós) evoluímos para ver a fluência linguística como um proxy para inteligência, envolvimento e utilidade como indicadores de confiabilidade”.
A mesma tendência que nos leva a confiar nos nossos companheiros com competências linguísticas para a sobrevivência está a levar-nos a confiar em sistemas que parecem ouvir-nos, compreender-nos e querer ajudar-nos.
Portanto, quanto mais as ferramentas de IA e os bots agem como humanos, maior a probabilidade de confiarmos neles. O que nos traz de volta à alucinação. Quanto mais as ferramentas de IA agem como se estivessem sendo úteis, maior a probabilidade de perdermos aquela “pequena informação extra” que não foi solicitada.
Resultado final
A convergência de alucinações intencionais e nosso instinto humano profundamente arraigado de confiar em comunicadores fluentes e prestativos cria uma tempestade perfeita de confiança equivocada.
À medida que as ferramentas de IA se tornam mais sofisticadas e semelhantes às humanas, os nossos instintos evolutivos apenas tornarão mais difícil manter a distância crítica necessária para detectar os erros, embelezamentos e adições não solicitadas que escapam.
A boa notícia é que a conscientização é o primeiro passo. Quer sejam os pequenos modelos da IBM validando os resultados em tempo real ou simplesmente desacelerando para verificar o que a IA nos oferece, o antídoto para um viés cognitivo que está sendo criado há milhões de anos é algo refrescantemente simples – uma dose saudável de ceticismo humano.
Seus clientes pesquisam em qualquer lugar. Certifique-se de que sua marca aparece.
O kit de ferramentas de SEO que você conhece, além dos dados de visibilidade de IA de que você precisa.
Comece o teste gratuito
Comece com
Fonte ==> Istoé