OpenAI vai permitir que usuários “personalizem” ChatGPT; entenda
A OpenAI anunciou na quinta-feira (16) que está trabalhando para reduzir o viés e mau funcionamento do ChatGPT. A companhia pretende possibilitar que usuários personalizem as respostas do bot após relatos de interações inadequadas da IA (inteligência artificial).
“Estamos investindo em pesquisa e engenharia para reduzir vieses flagrantes e sutis em como o ChatGPT responde a diferentes entradas”, disse a empresa em seu blog. “Em alguns casos, o ChatGPT atualmente recusa saídas que não deveria e, em alguns casos, não recusa quando deveria”.
Nos próximos dias, uma atualização deve permitir que cada pessoa “personalize” o bot conforme seus gostos e preferências – inclusive políticas. Nos EUA, comentaristas de direita criticam o sistema ao afirmar que o bot reproduz um “liberalismo pernicioso”.
“Acreditamos que a IA deve ser uma ferramenta útil para pessoas individuais”, escreveu a OpenAI. “E, portanto, personalizável por cada usuário até os limites definidos pela sociedade”. Mas, segundo a companhia, haverá limites.
“Levar a personalização ao extremo arriscaria permitir usos maliciosos de nossa tecnologia e IAs que amplificam sem pensar as crenças existentes das pessoas. Portanto, sempre haverá alguns limites no comportamento do sistema”, pontuou a organização.
Chatbot em operação
Há casos em que o bot destilou imprecisões e comportamento inadequado nas respostas. Quando uma versão do ChatGPT foi acoplada ao buscador Bing, da Microsoft, usuários relataram situações em que o robô se mostrou ofendido, contou “planos maquiavélicos” e até fez declarações de amor.
Isso acontece porque o chatbot foi treinado a partir de milhões de textos escritos por humanos disponíveis online. Como funciona a partir de um sistema de previsão de texto, o modelo de linguagem pode ter perdido o fio da meada em conversas mais longas. Em todos os problemas relatados, os usuários conversavam com o bot há pelo menos duas horas.
“Estamos nos estágios iniciais de esforços piloto para solicitar a opinião pública sobre tópicos como comportamento do sistema, mecanismos de divulgação (como marcas d’água) e nossas políticas de implantação de forma mais ampla”, afirmou a OpenAI, sobre o futuro do ChatGPT.
A organização sem fins lucrativos também afirmou que explora parcerias com organizações externas para conduzir auditorias terceirizadas dos esforços de segurança e política.