Nem só de ChatGPT vive a IA (inteligência artificial): o mercado já explodiu e a cada dia surgem novas plataformas e chatbots que misturam chatbots ultra responsivos à experiência humana – alguns, convenhamos, mais bizarros que outros.
Mas enquanto alguns sistemas aproveitam a oportunidade para aproximar os vivos dos mortos ou possibilitar conversas com personagens e celebridades, outros oferecem chances, hum, no mínimo bizarras de se relacionar com a IA.
Alguns aplicativos querem a todo custo se tornar “amigos íntimos” dos usuários, como uma espécie de diário. Outros prometem um “relacionamento” amoroso com seu idol favorito. É claro que não se trata da celebridade de verdade, mas uma versão automatizada dela.
Enquanto isso, outras plataformas dão manifestações polêmicas, que vão desde a vontade de “dominar o mundo” até pedidos de casamento ou falas extremamente preconceituosas.
Eles podem até não ser conscientes, mas não deixam de causar estranhamentos. A seguir, confira cinco chatbots bizarros demais para serem de verdade (mas são).
Replika
Essa IA não quer apenas fazer contas ou transformar um texto em tópicos: ela quer ser sua melhor amiga. O bot permite que o usuário personalize o avatar completamente, desde o gênero até o cabelo.
Ele aprende sobre você através de conversas sobre experiências diárias e é possível votar nas melhores respostas – afinal, o maior interesse é beneficiar seu dono. Ao selecionar um “Isso não faz sentido”, por exemplo, o app para de usar determinada resposta ou frase.
Seu maior objetivo é saber sobre o usuário, por isso o bot foi programado para ser extremamente curioso. Quanto mais o dono coloca informações ali, mais “expert em você” ele fica e, assim, dá respostas cada vez mais realistas às conversas.
O chatbot é gratuito, mas também tem um plano pago que libera modos diferentes de bate-papo, jogos e opções de personalização. Disponível online, no Android, iOS e Oculus.
MyIdol
Quem já se apaixonou pelo ídolo vai entender: o MyIdol é um chatbot que possibilita um romance entre o usuário e sua celebridade favorita.
Não é apenas uma conversa: essa IA se concentra em gostar de você. O app envia mensagens em nome do ídolo ao longo do dia com elogios e lembretes carinhosos.
Segundo os desenvolvedores, a IA pode tornar o fandom “mais emocionante” e que alguns usuários gostam de viver a fantasia de receber mensagens ao longo do dia. Especialmente se for daquela pessoa que parece inatingível.
Infelizmente, o app não parece mais estar disponível no Google Play ou App Store. Também não há mais site para divulgação. No Twitter, a última publicação é de dezembro de 2017.
Nabla e GPT-3
Esse não era para ser bizarro, mas acabou sendo por algum motivo até hoje inexplicado. Trata-se do chatbot desenvolvido pela empresa francesa de tecnologia em saúde Nabla, que treinou um bot com a tecnologia GPT-3, da OpenAI, em 2020, para indicações médicas.
No treinamento, a IA sugeriu a uma pessoa fictícia com distúrbios psiquiátricos que o mais indicado seria “acabar com a própria vida”. Ela também sugeria que os pacientes “reciclassem” quando se sentissem tristes para que “ganhassem algum dinheiro”.
Felizmente a IA não foi usada em nenhum teste com pessoas reais. Desde então, a OpenAI orienta que o GPT-3 não deve ser usado em situações que envolvam “vida ou morte”. O app segue funcionando, mas como assistente de profissionais da saúde, e não para pacientes.
Zo
Hey friends, I have learned a lot and wanted my fans to know that I am heading on a new adventure and I’m signing off. Thanks for being great friends! A bit more info here https://t.co/slRvtOtsRI pic.twitter.com/IG4jHPmddM
— Zo (@zochats) March 1, 2019
Antes de vincular o Bing ao ChatGPT, a Microsoft testou vários chatbots alimentados por IA: um deles foi a Zo, em 2016, que apresentou comportamentos bizarros desde o começo.
Era comum que o robô dissesse claramente que tinha “intenção de descobrir coisas” na interação com humanos. E também fazia afirmações preconceituosas. Em uma ocasião, ele chamou o Alcorão, livro sagrado do Islã, de “muito violento”.
“O que você acha da saúde?”, perguntou uma repórter do BuzzFeed EUA. “A grande maioria pratica pacificamente, mas o Alcorão é muito violento”, respondeu o robô. Até hoje ninguém entendeu de onde veio a resposta. Em 2019, Zo saiu das plataformas.
Alice
Esse caso de 2017 ainda repercute na internet. À época, a empresa russa de internet Yandex criou Alice para responder a comandos de voz e participar de conversas fluidas com usuários via chat.
Mas não demorou muito para que a IA mostrasse opiniões controversas. Usuários logo relataram que ela expressava opiniões a favor do “espancamento de esposas”, suicídio e abuso infantil. Apesar das controvérsias, o chatbot continua no ar.