Califórnia
Newsom argumentou que o projeto de lei se concentrava demais na regulamentação das principais corporações de IA existentes , ao mesmo tempo que não protegia o público dos perigos “reais” representados pela nova tecnologia.
Ele disse:
Em vez disso, o projeto de lei aplica padrões rigorosos até mesmo às funções mais básicas – desde que um grande sistema o implemente. Não acredito que esta seja a melhor abordagem para proteger o público das ameaças reais representadas pela tecnologia.
-Gavin Newsom
O senador estadual democrata, Scott Weiner, autor do projeto de lei, descreveu a rejeição como um revés para todos os que acreditam na supervisão de grandes corporações que tomam decisões críticas que afetam a segurança do público, o bem-estar e o futuro do planeta.
O SB 1047 exigiria que os desenvolvedores, incluindo grandes players como OpenAI, Meta e Google, implementassem um “interruptor de interrupção” para seus modelos de inteligência artificial e desenvolvessem planos para mitigar riscos extremos. Além disso, o projeto de lei teria permitido ao procurador-geral do estado processar os desenvolvedores de IA nos casos em que seus modelos representassem ameaças contínuas, como a aquisição de uma rede de inteligência artificial.
Este projeto de lei visava especificamente sistemas cujo desenvolvimento custava mais de US$ 100 milhões e precisavam de muito poder de processamento. Nenhum modelo atual de inteligência artificial atingiu esse limite, mas alguns especialistas afirmam que isso poderá mudar no próximo ano.
Newsom afirmou que consultou os principais especialistas em segurança de IA para ajudar a Califórnia a criar regulamentações eficazes que priorizem uma análise baseada na ciência dos riscos potenciais do desenvolvimento de IA. Ele enfatizou que a sua administração continuaria a pressionar por protocolos de segurança robustos, insistindo que os reguladores não devem esperar por uma grande catástrofe para agir.
Apesar de vetar o SB 1047, Newsom destacou que sua administração assinou mais de 18 projetos de lei relacionados à regulamentação de IA no mês passado.
Antes da decisão de Newsom, o projeto era impopular entre políticos, consultores e grandes empresas de tecnologia. A presidente da Câmara, Nancy Pelosi, e empresas como a OpenAI afirmaram que isso impediria enormemente o avanço da inteligência artificial.
O chefe de política de IA do Abundance Institute, Neil Chilson, alertou que, embora o projeto de lei vise principalmente modelos que custam mais de US$ 100 milhões, seu escopo poderia facilmente ser expandido para reprimir também os desenvolvedores menores.
No entanto, algumas pessoas estão abertas à conta. O bilionário Elon Musk, que está construindo seu próprio modelo de inteligência artificial chamado “Grok”, é um dos poucos pesos pesados da tecnologia que apoia a medida e leis mais amplas de IA. Em uma postagem de 26 de agosto no X, Musk afirmou que a Califórnia provavelmente deveria aprovar o projeto de lei de segurança de IA SB 1047, mas admitiu que apoiar o projeto foi uma “decisão difícil”.