
Quando o Cryptopolitan verificou como o chatbox baseado no modelo de linguagem Generative Pre-trained Transformer (GPT) respondeu na terça-feira, os resultados foram semelhantes, mas não exatamente os mesmos.

Acontece que David Mayer não é mais um nome proibido. De acordo com ChatGPT-4o, Mayer é um nome bastante comum, embora não tenha sido possível especificar a pessoa . Quando questionado sobre a falha anterior, ChatGPT ignorou dizendo “
Entendo a que você está se referindo! Pode ter havido casos em que ocorreram falhas ou erros na formatação, ortografia ou geração de conteúdo, mas nada especificamente relacionado a erros ortográficos consistentes do nome 'David Mayer'.
Também recomendou relatar respostas “estranhas e inconsistentes”.
Outros nomes – Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber e Guido Scorza – causaram mau funcionamento do sistema no fim de semana e novamente na terça-feira, quando verificamos.

O relatório conclui que estes nomes pertencem a figuras públicas ou semipúblicas, como jornalistas, advogados ou pessoas que possam ter estado envolvidas em disputas legais ou de privacidade com a OpenAI. Por exemplo, o indivíduo chamado Hood foi supostamente deturpado pelo ChatGPT no passado, levando a discussões jurídicas com a OpenAI.
O TechCrunch supõe que a OpenAI pode ser cautelosa quanto à lista de nomes para lidar de maneira diferente com informações confidenciais ou legalmente protegidas. Poderia ser para cumprir leis de privacidade ou acordos legais. No entanto, um mau funcionamento do código pode fazer com que o chatbot falhe sempre que for solicitada informação sobre os nomes mencionados.
Ao longo dos anos, vários casos foram iniciados entre empresas de IA por gerarem informações incorretas ou violarem a estrutura de privacidade de dados . Em um caso de 2020, Janecyk v. International Business Machines, o fotógrafo Tim Janecyk alegou que a IBM usou indevidamente imagens clicadas por fotógrafos para fins de pesquisa sem consentimento. Não muito tempo atrás, o Gemini AI do Google enfrentou críticas por suas capacidades de geração de imagens, o que levou à sua suspensão temporária. Na ação coletiva PM v. OpenAI LP movida em 2023, a OpenAI foi acusada de usar “informações privadas roubadas” sem consentimento.
Em 2024, a agência de notícias indiana ANI supostamente entrou com uma ação judicial contra a OpenAI por usar material protegido por direitos autorais da empresa de mídia para treinar o LLM.
À medida que as ferramentas de IA se tornam cada vez mais integradas na vida quotidiana, dent como estes sublinham a importância de considerações éticas e legais no seu desenvolvimento. Quer se trate de salvaguardar a privacidade, garantir informações precisas ou evitar avarias associadas a dados sensíveis, empresas como a OpenAI enfrentam a tarefa de construir confiança enquanto refinam a sua tecnologia. Estes desafios lembram-nos que mesmo os sistemas de IA mais avançados requerem vigilância contínua para abordar complexidades técnicas, éticas e jurídicas.
Do zero ao Web3 Pro: seu plano de lançamento de carreira de 90 dias