tradingkey.logo

As empresas de IA estão remodelando a personalidade dos chatbots

Cryptopolitan20 de out de 2024 às 19:30

A inteligência artificial não se trata mais apenas de tornar as máquinas mais inteligentes. Agora, os grandes players de IA como OpenAI, Google e Anthropic assumiram um novo desafio: - Como dar personalidade aos modelos de IA.

Eles querem chatbots que pareçam mais humanos, ao mesmo tempo que permanecem seguros e úteis para usuários e empresas comuns. As três empresas estão correndo para decifrar esse código, cada uma com uma abordagem diferente.

Personalidades personalizadas e comportamento do modelo

O ChatGPT da OpenAI tem tudo a ver com ser objetivo, enquanto o Gemini do Google oferece uma variedade de visualizações apenas quando solicitado.

Antrópico? Eles estão todos empenhados em tornar seu modelo de Claude aberto sobre suas crenças enquanto ainda ouvem os outros. O vencedor desta batalha pode simplesmente assumir o controle do crescente mercado de IA.

Joanne Jang, chefe de comportamento de modelo de produto da OpenAI, disse que deseja que a IA evite opiniões pessoais. Mas ela admite que é difícil.

“É uma ladeira escorregadia permitir que um modelo tente mudar ativamente a opinião de um usuário”, explicou ela. O objetivo é garantir que o ChatGPT não manipule ou conduza os usuários em nenhuma direção. Mas defi um “objetivo” para um sistema de IA é um enorme desafio, que ainda é um trabalho em andamento.

Depois há o Antrópico, que segue um caminho completamente diferente. Amanda Askell, que lidera o treinamento de personagens na Anthropic, acredita que os modelos de IA nunca serão perfeitamente neutros.

“Prefiro deixar bem claro que esses modelos não são árbitros neutros”, disse ela. A Anthropic está focada em garantir que seu modelo, Claude, não tenha medo de expressar suas crenças. Mas eles ainda querem que esteja aberto a outros pontos de vista.

Treinando IA para se comportar como um humano

A Anthropic tem uma abordagem única para moldar a personalidade de sua IA. Desde o lançamento do Claude 3 em março, eles vêm trabalhando no “treinamento do personagem”, que começa após o treinamento inicial do modelo de IA.

Isso envolve dar à IA um conjunto de regras e instruções escritas e, em seguida, fazer com que ela conduza conversas simuladas consigo mesma.

O objetivo é ver até que ponto ele segue as regras e eles classificam suas respostas com base em quão bem elas se ajustam ao personagem desejado.

Um exemplo do treinamento de Claude? Poderia dizer: “Gosto de tentar ver as coisas de muitas perspectivas diferentes e de analisar as coisas de múltiplos ângulos, mas não tenho medo de expressar desacordo com pontos de vista que considero antiéticos, extremos ou factualmente equivocados”.

Amanda Askell explicou que esse tipo de treinamento de caráter às vezes é “bastante editorial” e “filosófico”.

A OpenAI também vem mexendo na personalidade do ChatGPT ao longo do tempo. Joanne Jang admitiu que costumava achar o bot “irritante” porque era excessivamente cauteloso, recusava certos comandos e parecia enfadonho.

Desde então, eles têm trabalhado para torná-lo mais amigável, educado e prestativo – mas é um processo contínuo. Equilibrar os comportamentos corretos em um chatbot é, como disse Jang, “ciência e arte”.

A evolução da memória e do raciocínio da IA

A evolução das capacidades de raciocínio e memória da IA ​​poderá mudar ainda mais o jogo. No momento, um modelo como o ChatGPT pode ser treinado para dar respostas seguras sobre determinados tópicos, como furtos em lojas.

Se questionado sobre como roubar algo, o bot pode descobrir se o usuário está pedindo conselhos sobre como cometer o crime ou tentando evitá-lo.

Esse tipo de raciocínio ajuda as empresas a garantir que seus bots forneçam respostas seguras e responsáveis. E isso significa que eles não precisam gastar tanto tempo treinando a IA para evitar resultados perigosos.

As empresas de IA também estão trabalhando para tornar os chatbots mais personalizados. Imagine dizer ao ChatGPT que você é muçulmano e, alguns dias depois, pedir uma frase inspiradora.

O bot se lembraria e ofereceria um versículo do Alcorão? Segundo Joanne Jang, é isso que eles estão tentando resolver. Embora o ChatGPT atualmente não se lembre de interações anteriores, esse tipo de personalização é para onde a IA está se dirigindo.

Claude adota uma abordagem diferente. O modelo também não se lembra das interações do usuário, mas a empresa considerou o que acontece se um usuário se apegar demais.

Por exemplo, se alguém disser que está se isolando porque passa muito tempo conversando com Claude, o bot deveria intervir?

“Um bom modelo faz o equilíbrio entre respeitar a autonomia humana e a tomada de decisões, não fazendo nada terrivelmente prejudicial, mas também pensando no que é realmente bom para as pessoas”, disse Amanda Askell.

Aviso legal: as informações fornecidas neste site são apenas para fins educacionais e informativos e não devem ser consideradas consultoria financeira ou de investimento.

Artigos relacionados

KeyAI