O CEO da Nvidia, Jensen Huang, não vê uma maneira de contornar isso. Ele diz que mais IA é a única coisa que pode combater o abuso de IA.
Falando num evento em Washington organizado pelo Centro de Política Bipartidária, o argumento de Huang foi que a inteligência artificial é tanto o problema como a solução.
Ele explicou que a capacidade da IA de gerar dados falsos e informações falsas em velocidades vertiginosas significa que será necessário algo igualmente rápido para alcançá-los. Huang também comparou a situação atual da IA com a segurança cibernética.
Ele ressaltou que “quase todas as empresas” estão vulneráveis a ataques a qualquer momento, e a única maneira de se defender contra essas ameaças constantes é através de sistemas avançados baseados em IA.
O mesmo vale para IA. É necessária uma IA melhor para se defender contra uma IA prejudicial.
As preocupações sobre o uso indevido da IA estão a aumentar nos Estados Unidos à medida que o país se prepara para as eleições federais de Novembro.
Com o aumento da desinformação gerada pela IA, o público está preocupado com a sua influência na democracia.
Uma pesquisa do Pew Research Center descobriu que quase 60% dos americanos estão “extremamente” ou “muito” preocupados com a possibilidade de a IA ser usada para espalhar informações falsas sobre os candidatos.
Tanto os Democratas como os Republicanos estão igualmente preocupados com isso. O que é ainda mais preocupante é que cerca de duas em cada cinco pessoas acreditam que a IA será utilizada principalmente para fins nocivos durante as eleições.
Apenas 5% estavam optimistas quanto ao potencial da IA. Huang apelou ao governo dos EUA para intensificar o seu jogo de IA. Ele disse que o governo precisa se tornar um praticante de IA para se manter à frente da curva.
O CEO da Nvidia enfatizou que todos os departamentos deveriam adotar a IA, especialmente Energia e Defesa. Huang também sugeriu construir um supercomputador de IA.
Ele acredita que os cientistas trabalhariam avidamente em novos algoritmos que poderiam ajudar o país a avançar.
À medida que a IA continua a se desenvolver, precisará de mais energia. Literalmente. Os data centers de IA hoje já usam até 1,5% da eletricidade global, mas Huang prevê que esse número aumentará matic .
Os futuros data centers poderão precisar de 10 a 20 vezes mais energia do que vemos agora. Ele explicou que os modelos de IA poderiam começar a ensinar uns aos outros, o que aumentaria ainda mais o uso de energia.
Mas Huang também vê uma solução. Ele sugeriu a construção de data centers próximos a fontes de excesso de energia difíceis de transportar.
Como a IA não se importa onde aprende, os data centers poderiam ser construídos em locais remotos com recursos energéticos suficientes.
Enquanto isso, há outra batalha em andamento sobre como regular a IA. Na Califórnia, o governador Gavin Newsom vetou um projeto de lei ontem à noite.
Chama-se SB 1047 e foi concebido para impor medidas de segurança obrigatórias para sistemas de IA. O projeto causou grande resistência por parte de grandes empresas de tecnologia como OpenAI, Meta e Google.
Newsom acredita que o projeto de lei sufocaria a inovação e não protegeria as pessoas dos perigos reais.
De acordo com Newsom, os padrões do projeto de lei eram demasiado rigorosos para as funções básicas da IA, e a sua abordagem à regulamentação não era a melhor forma de enfrentar as ameaças da IA.
Escrito pelo senador democrata Scott Wiener, o projeto de lei exigiria que os desenvolvedores de IA implementassem um “interruptor de eliminação” para seus modelos e publicassem planos para mitigar riscos extremos.
Também teria tornado os desenvolvedores passíveis de ações legais se seus sistemas trouxessem uma ameaça contínua, como uma aquisição da rede de IA.