Por Byron Kaye
SYDNEY, 6 mar (Reuters) - Google ha informado a las autoridades australianas que ha recibido más de 250 denuncias en todo el mundo a lo largo de casi un año sobre el uso de su software de inteligencia artificial para crear material terrorista falsificado.
El gigante tecnológico GOOGL.O, propiedad de Alphabet, también dijo que había recibido docenas de informes de usuarios advirtiendo que su programa de IA, Gemini, estaba siendo utilizado para crear material de abuso infantil, según la Comisión Australiana de eSafety.
Según la ley australiana, las empresas tecnológicas deben proporcionar periódicamente a la Comisión de eSafety información sobre los esfuerzos de minimización de daños o arriesgarse a multas. El periodo de información abarcó de abril de 2023 a febrero de 2024.
Desde que el ChatGPT de OpenAI saltó a la opinión pública a finales de 2022, reguladores de todo el mundo han reclamado mejores barreras para que la IA no pueda utilizarse para el terrorismo, el fraude, la pornografía falsa y otros abusos.
La Comisión Australiana de eSafety calificó la revelación de Google de "visión pionera en el mundo" sobre cómo los usuarios pueden estar explotando la tecnología para producir contenido dañino e ilegal.
"Esto subraya lo importante que es para las empresas que desarrollan productos de inteligencia artificial incorporar y probar la eficacia de las salvaguardias para evitar que se genere este tipo de material", declaró en un comunicado la Comisaria de eSafety, Julie Inman Grant.
En su informe, Google señala que ha recibido 258 denuncias de usuarios sobre presuntos contenidos terroristas o extremistas violentos falsos generados por inteligencia artificial a través de Gemini, y otras 86 denuncias de usuarios sobre material de explotación o abuso infantil generado por inteligencia artificial.
Según el regulador, Google no ha comunicado cuántas de las denuncias ha verificado.
Google utilizó el "hatch-matching" -un sistema de comparación automática de imágenes recién cargadas con imágenes ya conocidas- para identificar y eliminar material de abuso infantil creado con Gemini.
Pero no utilizó el mismo sistema para eliminar el material terrorista o de extremistas violentos generado con Gemini, añadió el regulador.
El regulador ha multado a Telegram y Twitter, que posteriormente pasó a llamarse X, por lo que calificó de deficiencias en sus informes.
X ha perdido un recurso sobre su multa de 610.500 dólares australianos (382.000 dólares estadounidenses), pero tiene previsto apelar de nuevo. Telegram también tiene previsto recurrir su multa.