O que é o ChatGPT – e outros 12 bots com proposta parecida
O ChatGPT viralizou, mais ainda deixa muitas perguntas não respondidas. A começar pelo nome: o que, afinal, é GPT? Existem outras opções além desse mais famoso?
A plataforma lançada pela OpenAI em novembro se chama ChatGPT porque é um chatbot baseado no modelo de linguagem GPT-3.5, uma versão atualizada do GPT-3. De forma bem resumida, é uma IA (inteligência artificial) que produz respostas dando a impressão de que é humana.
O mecanismo usa a lógica da previsão de texto e um aprendizado de máquina que se baseou em milhões de textos escritos por humanos disponíveis na internet até 2021. Assim, consegue parecer fiel à escrita humana – mesmo que muitas vezes use informações falsas e desconexas.
O mais impressionante do ChatGPT é que a tecnologia faz de tudo um pouco, desde receitas de bolo até rap, passando por textos sobre qualquer assunto, piadas — e até códigos de computador.
Junto com a ferramenta, surgiram outros parecidos, e que seguem a mesma linha: um chatbot ultra responsivo capaz de auxiliar nas mais variadas tarefas sem a necessidade de pesquisar ou acessar diversos links até conseguir uma informação.
A maioria dos que listamos aqui tem apenas o código disponível, o que é mais interessante para programadores e profissionais da área tech. Mas vale a pena conferir como as gigantes da tecnologia irão surfar nessa onda dos sistemas de IA que imitam a linguagem humana. Veja abaixo alguns eles.
Bard
É o mais recente chatbot do Google. Entrou em fase de testes públicos nesta terça-feira (7), primeiro para “testadores confiáveis”. Em algumas semanas, deve ficar disponível para o público geral.
O sistema é baseado no modelo de linguagem LaMDA, e deve ser incorporado à Pesquisa e Maps do Google em breve. Assim como o ChatGPT, a IA extrai informações da internet e usa o processamento de linguagem LaMDA para criar textos e responder perguntas diretamente, sem que os usuários precisem acessar links.
BERT
BERT é o acrônimo para Bidirectional Encoder Representations from Transformers, um modelo de aprendizagem de máquina desenvolvido pelo Google. O robô tem habilidades de processamento de linguagem natural, como resposta a perguntas e análise de sentimentos.
Em sua base, usa o BookCorpus e Wikipédia em inglês como referências de pré-treinamento. Já aprendeu 800 milhões e 2,5 bilhões de palavras nesses dois sistemas, respectivamente.
Acesse a versão em código aberto neste link do GitHub.
Meena
Outro chatbot do Google, Meena foi lançado em janeiro de 2020 para testar conversas da forma humana. O robô desempenha funções simples, como piadas e trocadilhos (que sempre funcionam melhor em inglês, claro).
Na época do lançamento, foi uma alternativa direta ao GPT-2 da OpenAI e tinha capacidade de processar até 8,5 vezes mais dados que a concorrente. A rede neural foi treinada a partir de conversas em mídias sociais, o que lhe deu 79% na métrica de SSA (Sensibilidade e Especificidade Média, na sigla em inglês).
Acesse a versão em código aberto neste link do GitHub.
RoBERTa
É uma versão avançada do BERT original: Robustly Optimized BERT Pretraining Approach. O Facebook anunciou a tecnologia em julho de 2019 como um modelo de linguagem de pré-treinamento.
O bot usa 76 GB de dados do CommonCrawl (CC-News), que inclui 63 milhões de artigos de notícias em inglês produzidos entre setembro de 2016 e fevereiro de 2019. É bem mais que o BERT original, que usa 16 GB de dados. RoBERTa está em código aberto desde setembro de 2019.
XLNet
Modelo de linguagem autorregressiva desenvolvido por pesquisadores do Google Brain e Universidade Carnegie Mellon. Foi apresentado em 2019 e é basicamente um BERT mais avançado.
É bem conhecido entre a comunidade de pesquisa em PNL (Programação Neurolinguística). O código e modelo pré-treinados estão disponíveis no GitHub.
DialoGPT
Modelo de linguagem lançado em novembro de 2019 pela Microsoft Research, o DialoGPT foi treinado para imitar as conversas humanas de forma semelhante ao GPT-2. Tem como base 147 milhões de diálogos extraídos de tópicos do fórum Reddit. O código está disponível no GitHub.
ALBERT
É a versão “lite” do BERT. Desenvolvido pelo Google em dezembro de 2019, tem limitações nos parâmetros do modelo original, mas o treinamento pode acontecer em um conjunto de dados maior e com outros bots, como XLNet e RoBERTa. Código no GitHub.
T5
O T5 (Text-to-Text Transfer Transformer) é outro modelo do Google que se baseia em modelos anteriores, como GPT, BERT, XLNet, RoBERTa e ALBERT. A diferença é que adiciona um novo conjunto de dados chamado C4 (Colossal Clean Crawled Corpus), o que permite produzir resultados com contexto de mais qualidade. Código no GitHub.
CTRL
Desenvolvido pela Salesforce, o CTRL é um modelo de linguagem de 1,6 milhão de parâmetros que pode ser usados para analisar grandes textos de uma só vez. Ele é capaz de diferenciar desde a pontuação até a intenção de consultas específicas.
Um exemplo: o modelo diferencia se a afirmação “o aquecimento global é uma mentira” não passa de uma opinião impopular ou uma teoria da conspiração, dependendo da análise de contexto das páginas web.
Em seu pré-treinamento, usou fontes como Wikipédia, avaliações da Amazon e Reddit. Também faz referência a uma série de notícias, informações e recursos internacionais. Código no GitHub.
GShard
É um modelo de tradução de idiomas do Google, introduzido em junho de 2020. Inclui 600 milhões de parâmetros, o que permite treinar milhares de conjuntos de dados de uma só vez. É particularmente adepto da tradução de idiomas: está sendo treinado para traduzir 100 idiomas para o inglês em quatro dias.
Blender
Chatbot de código aberto lançado pelo Facebook em abril de 2020. A big tech disse que o sistema tem capacidade de fornecer “conversas envolventes, ouvir e mostrar compreensão da opinião do outro”. Também demonstra “empatia e personalidade”.
Está disponível na plataforma Parl.ai.
Pegasus
O modelo de processamento de linguagem neural do Google saiu em dezembro de 2019. Ele cria resumos sobre qualquer coisa – notícias, artigo, literatura, instruções, e-mails, patentes, projetos de lei, etc. O código está disponível no GitHub.