Desde que o ChatGPT da OpenAI foi lançado em novembro de 2022, especialistas em tecnologia, mídia e governos expressaram preocupação sobre o que ele poderia se tornar nas mãos de malfeitores. Como resultado, alguns países inclinaram-se para a regulamentação excessiva, sufocando o desenvolvimento (a UE), enquanto outros, como os EUA, adoptaram uma abordagem mais indiferente à indústria.
Em dezembro de 2024, vários países sitiaram legalmente startups de IA como a OpenAI sob alegações de violações nas políticas e regulamentos de privacidade de dados.
Mais recentemente, empresas de mídia canadenses, incluindo Toronto Star, Metroland Media, Postmedia, The Globe and Mail, The Canadian Press e CBC, ingressaram em uma ação judicial , supostamente a primeira desse tipo no país. Todos eles processaram a OpenAI por supostamente ignorar salvaguardas como acesso pago ou isenções de direitos autorais destinadas a impedir a cópia não autorizada de conteúdo.
“O jornalismo é do interesse público. A OpenAI usar o jornalismo de outras empresas para seu próprio ganho comercial, não. É ilegal”, afirmaram as organizações de comunicação social num comunicado conjunto.
O grupo, que inclui os editores dos principais jornais do Canadá, exige indenização de C$ 20.000 por artigo (US$ 14.300, £ 11.000) que a OpenAI supostamente usou para treinar ilegalmente o ChatGPT. O total pode chegar a bilhões de dólares em compensação.
As organizações de notícias também querem uma ordem que obrigue a empresa a partilhar os lucros obtidos com a utilização dos seus artigos, bem como uma liminar que proíba a OpenAI de os utilizar no futuro.
Enquanto isso, a OpenAI afirma que seus modelos são “treinados em dados disponíveis publicamente” e que o software é “baseado no uso justo e nos princípios internacionais de direitos autorais relacionados que são justos para os criadores e apoiam a inovação”.
“Colaboramos estreitamente com os editores de notícias, inclusive na exibição, atribuição e links para seu conteúdo na pesquisa ChatGPT, e oferecemos maneiras fáceis de cancelar, caso assim o desejem”, disse a empresa.
O New York Times e outras editoras abriram um processo semelhante contra a OpenAI e a Microsoft nos EUA no ano passado.
A China foi um dos primeiros países a estabelecer um quadro regulamentar para a tecnologia de IA generativa, ao emitir a versão final das suas Medidas de IA Generativa em 10 de julho de 2023.
Sete agências do governo central chinês adotaram conjuntamente as Medidas de IA Generativa, que entraram em vigor em 15 de agosto de 2023. Em comparação com o primeiro rascunho das Medidas de IA Generativa lançadas para consulta pública em abril de 2023, as novas Medidas de IA Generativa incentivaram o desenvolvimento e o investimento em tecnologia e serviços generativos de IA.
No entanto, o ChatGPT da OpenAI e serviços semelhantes são proibidos devido a leis de censura e temores de desinformação. Isto levou os desenvolvedores chineses, muitos dos quais usavam a API da OpenAI em seus produtos, a procurar alternativas domésticas de IA.
O governo também apoiou estas alternativas, uma vez que se alinham com os seus regulamentos.
Por outro lado, a Rússia assumiu uma postura mais reservada em relação à inteligência artificial. O país tem agora restrições em vigor para combater o que considera riscos da influência dos EUA através da IA. Ele também cita preocupações com a segurança cibernética.
Nos meses que antecederam as eleições nos EUA, houve vários relatórios alegando que a Rússia estava a usar a IA para influenciar a perspectiva, embora muitos a considerassem propaganda.
Na Coreia do Norte, o governo trata a IA com suspeita e grande cautela, tal como faz com muitas inovações externas. O governo proibiu o ChatGPT e tecnologias semelhantes numa tentativa de manter um controle estrito sobre as informações e evitar possíveis usos indevidos.
Muitos especialistas acusaram a Europa de sufocar a inovação em IA através da sua Lei de IA da UE. A Lei da IA da UE é o regulamento criado para harmonizar o quadro jurídico dos sistemas de IA em toda a UE.
De acordo com a lei, as aplicações de IA enquadram-se em três níveis de risco: risco inaceitável (proibido), alto risco (sujeito a requisitos rigorosos) e baixo risco (em grande parte não regulamentado). A lei proíbe práticas de IA que sejam manipuladoras ou enganosas, mas há exceções para certos usos policiais.
Desrespeitar a lei pode resultar em multas de até 35 milhões de euros ou 7% do volume de negócios global. A abordagem cautelosa da Europa em relação à IA ficou em plena evidência quando o regulador italiano de privacidade de dados entrou em conflito com a OpenAI sobre o acesso ao conteúdo de uma das suas empresas de comunicação social.
O objetivo principal da parceria era usar conteúdo em italiano do portfólio de notícias da GEDI para treinar e melhorar os produtos da OpenAI, um passo para treinar modelos ChatGPT em conteúdo italiano.
Em resposta, a GEDI afirmou: “O projeto ainda não foi lançado, portanto, nenhum conteúdo editorial foi disponibilizado para a OpenAI no momento e não o será até que as revisões em andamento sejam concluídas”.
O confronto ocorre quase um ano depois que outra autoridade italiana, conhecida como Garant, uma das mais proativas da União Europeia na avaliação da conformidade da plataforma de IA com o regime de privacidade de dados do bloco, proibiu o ChatGPT.
Alegou violações das regras de privacidade da União Europeia (UE), mas o serviço foi reativado depois que a OpenAI abordou questões como o direito dos usuários de recusar o consentimento para o uso de dados pessoais para treinar algoritmos.
Numa declaração por e-mail, a OpenAI disse acreditar que as suas práticas estão alinhadas com as leis de privacidade da UE. “Trabalhamos ativamente para reduzir os dados pessoais no treinamento de nossos sistemas como o ChatGPT”, disse, acrescentando que “planejamos continuar a trabalhar de forma construtiva com o Garant”.
A Europa está atrasada na corrida pela IA, enquanto países como a América continuam a avançar. Atualmente, as empresas americanas, incluindo a empresa-mãe da OpenAI, a Microsoft, dominam as fileiras das maiores empresas de IA em termos de avaliação de mercado. A resposta comedida do país sem dúvida valeu a pena para os seus negócios de IA, pelo menos no curto prazo.
Muito recentemente, Kanye West, um rapper americano vencedor do Grammy, tornou-se o último a adotar a tecnologia ao lançar um videoclipe criado usando IA generativa para seu single intitulado BOMB.
Embora muitos locais citem preocupações sobre a ética da utilização da IA como justificativa para as suas restrições rigorosas, também parecem ser devido a tensões políticas e aos esforços para proteger os interesses nacionais. Se nada mudar, o mundo poderá estar muito à frente quando a Europa finalmente detectar o vírus da IA.
Consiga um emprego bem remunerado na Web3 em 90 dias: o roteiro definitivo