tradingkey.logo

El ex director ejecutivo de Google, Schmidt, insta a "desconectar" los sistemas de inteligencia artificial en determinadas capacidades

Cryptopolitan17 de dic de 2024 9:34

El ex director ejecutivo de Google, Eric Schmidt, advirtió a los desarrolladores de inteligencia artificial que controlen su techo de desarrollo. También destacó la importancia de que Estados Unidos gane la actual carrera de inteligencia artificial (IA) contra China.

Hablando el domingo en This Week with George Stephanopoulos de ABC News , Schmidt advirtió sobre el potencial de los sistemas de IA para operar de forma dent e incluso mejorarse a sí mismos.

" Pronto podremos tener computadoras funcionando solas y decidiendo lo que quieren hacer ", dijo Schmidt.

Schmidt: La IA no debería quedar sin control

Schmidt reiteró los riesgos de que la IA avanzada se desarrolle sin control y señaló que los sistemas capaces de mejorarse a sí mismos presentan un peligro importante.

" Cuando el sistema pueda mejorar por sí solo, tendremos que pensar seriamente en desconectarlo ", dijo el ex director ejecutivo de Google.

Cuando Stephanopoulos preguntó a Schmidt si tales sistemas de IA podrían contrarrestar los esfuerzos por cerrarlos, Schmidt respondió: "Bueno, en teoría, será mejor que tengamos a alguien con la mano en el enchufe, metafóricamente".

Si bien aumentan las preocupaciones sobre los riesgos existenciales de la IA , algunos expertos sostienen que esos temores son exagerados. El profesor Nick Jennings, vicerrector de investigación del Imperial College de Londres, se encuentra entre los que desestiman las predicciones apocalípticas.

Jennings sostiene que, si bien la IA puede sobresalir en tareas específicas, la creación de sistemas con inteligencia similar a la humana en diversas áreas sigue estando mucho más allá de las capacidades actuales de los científicos.

" Es posible desarrollar una IA que realice muy bien una tarea singular ", explicó Jennings. "Pero construir una IA general que refleje la inteligencia humana en múltiples temas no es algo que podamos esperar en el futuro cercano".

Opiniones divergentes sobre las amenazas de la IA

Mientras tanto, persisten las preocupaciones entre los principales investigadores de IA, que advierten sobre los peligros que plantean objetivos mal defi y medidas de seguridad inadecuadas. El profesor de la Universidad de California en Berkeley, Stuart Russell, y el investigador postdoctoral Michael Cohen sostienen que los potentes sistemas de inteligencia artificial podrían, en última instancia, representar una amenaza existencial para la humanidad si no se controlan.

En un artículo informativo publicado en Science Journal, Russell y Cohen pidieron una supervisión más estricta del desarrollo de la IA. Hicieron hincapié en la necesidad de que las empresas de tecnología demuestren la seguridad de sus sistemas de inteligencia artificial antes de lanzarlos al mercado. Argumentan que sin objetivos claros y salvaguardias sólidas, los sistemas avanzados de IA podrían actuar contra los intereses humanos.

" Si los objetivos de estas IA entran en conflicto con los de los humanos, podría significar un desastre ", escribieron Russell y Cohen. Creen que las empresas de tecnología deberían ser responsables de garantizar la seguridad de sus sistemas e dent “líneas rojas” críticas que la IA nunca debería cruzar.

Un debate creciente sobre la seguridad de la IA

El rápido ritmo del avance de la IA ya ha presentado desafíos, incluida la difusión de desinformación, la polarización social y el sesgo algorítmico. Las preocupaciones sobre la seguridad y la regulación aún tienen que seguir el ritmo del desarrollo de la tecnología.

Los comentarios de Schmidt reflejan la creciente urgencia entre los líderes de la industria de abordar estos desafíos. Expertos como Elon Musk llevan mucho tiempo pidiendo regulaciones preventivas para mitigar los riesgos de la IA.

Musk, que alguna vez describió la IA como “el mayor riesgo que enfrentamos como civilización”, advirtió que las autoridades han hecho poco para abordar sus peligros. De manera similar, el físico Stephen Hawking temía que lograr la singularidad, el punto en el que las máquinas superan la inteligencia humana, pudiera dejar a la humanidad incapaz de controlar sistemas avanzados de inteligencia artificial.

En su entrevista, Hawking argumentó que sin regulaciones, la IA podría convertirse en “lo mejor o lo peor que le puede pasar a la humanidad”.

Se intensifica la competencia en IA entre Estados Unidos y China

Schmidt señaló que, si bien Estados Unidos anteriormente tenía una ventaja sobre China en el desarrollo de la IA , la brecha se ha reducido significativamente en los últimos seis meses. " China se ha puesto al día de una manera notable ", dijo, describiendo la situación actual como una carrera de alto riesgo entre las dos superpotencias.

Llegará un momento, tal vez dentro de uno o dos años, en el que los sistemas podrán comenzar a realizar su propia investigación. Se les llama científicos de IA, a diferencia de los científicos humanos. Entonces se pasa de tener 1.000 científicos humanos a un millón de científicos de IA. Creo que eso aumenta la pendiente, y cuando vas a este ritmo, es muy difícil que tus competidores te alcancen ”, remarcó.

Schmidt cree que la administración entrante de Trump dará prioridad a la competitividad estadounidense en IA, lo que considera un paso positivo. "Mientras se preserven los valores humanos", dijo, "estaremos bien".

Un sistema paso a paso para iniciar su carrera en Web3 y conseguir trabajos criptográficos bien remunerados en 90 días.

Descargo de responsabilidad: La información proporcionada en este sitio web es solo para fines educativos e informativos, y no debe considerarse como asesoramiento financiero o de inversión.
Tradingkey
Tradingkey
KeyAI