¿Hacia dónde va la inteligencia artificial? Reflexiones de Gary Marcus

Gary Marcus es un destacado científico cognitivo, autor y crítico de la inteligencia artificial. Con una larga trayectoria en la intersección entre la ciencia cognitiva y la tecnología, Marcus ha trabajado como profesor en la Universidad de Nueva York y ha fundado varias empresas relacionadas con la IA, como Geometric Intelligence, que fue adquirida por Uber. Además de ser un investigador prolífico, es una de las voces más críticas y respetadas en el debate sobre la ética y el futuro de la inteligencia artificial. En su nuevo libro, Taming Silicon Valley, Marcus ofrece un análisis profundo sobre los peligros a los que se enfrenta la sociedad si la IA continúa desarrollándose sin la debida regulación y control.

El peligro de una IA desregulada

Marcus empieza señalando un tema preocupante: si no se «domina» a Silicon Valley, los desequilibrios de poder que estas compañías ya controlan crecerán de forma exponencial. Según Marcus, la IA, si se deja sin supervisión, podría destruir las bases mismas de la democracia, facilitando la desinformación automatizada y manipulando procesos clave como las elecciones. Además, plantea escenarios aún más alarmantes: el mal uso de la IA podría provocar desde catástrofes tecnológicas, como el colapso de las redes eléctricas, hasta incluso guerras accidentales iniciadas por sistemas autónomos.

Lo más inquietante es que la IA generativa, como los modelos de lenguaje ya sobradamente conocidos y usados, está actuando como un experimento masivo y no controlado sobre toda la población mundial, sin que la mayoría de las personas sea consciente de los riesgos involucrados. Estas IA generan textos, pero no entienden lo que están diciendo. Funcionan como motores probabilísticos a gran escala, lo que convierte el término «inteligencia» en algo engañoso cuando nos referimos a estos sistemas.

La hoja de ruta para una IA responsable

Marcus no solo critica el estado actual de la IA, sino que también propone soluciones para cambiar el rumbo. En su libro, sugiere que el camino hacia una IA que beneficie a la humanidad pasa por varios puntos clave:

  • Derechos sobre los datos y la privacidad: Los usuarios deben tener más control sobre cómo se utilizan sus datos.
  • Transparencia: Las compañías deben ser claras sobre cómo funcionan sus modelos de IA y los riesgos que conllevan.
  • Responsabilidad de los desarrolladores: Aquellos que crean IA deben asumir una mayor responsabilidad por los posibles daños que sus sistemas puedan causar.
  • Educación sobre IA para el público: La alfabetización en IA debe ser accesible para que las personas entiendan mejor los sistemas que afectan sus vidas.
  • Supervisión independiente y regulación ágil: La regulación, a nivel nacional e internacional, es crucial para garantizar que la IA se desarrolle y utilice de manera ética.

Estas medidas, según Marcus, podrían ayudar a equilibrar el poder entre las grandes corporaciones tecnológicas y los usuarios, creando una IA que trabaje para todos y no solo para unos pocos.

¿Regulación o innovación?

Uno de los puntos más interesantes que aborda Marcus es el falso dilema que plantean muchos gigantes tecnológicos: regulación vs. innovación. Silicon Valley ha afirmado en múltiples ocasiones que la regulación «sofocaría» la innovación. Sin embargo, Marcus desmonta este mito comparando la regulación de la IA con la introducción de medidas de seguridad en otras industrias, como los cinturones de seguridad en los coches o la regulación en la aviación y la industria farmacéutica. De hecho, argumenta que la regulación puede ser el motor para una innovación más segura y responsable.

Incluso ya estamos viendo empresas que empiezan a ofrecer «IA responsable como servicio», impulsadas por la demanda de un desarrollo más ético de esta tecnología. Es un camino que puede crear nuevas oportunidades de mercado sin sacrificar la seguridad y los derechos de los usuarios.

La misión original de la IA

Un aspecto que no podemos pasar por alto es cómo, según Marcus, la industria de la IA ha perdido su propósito inicial. En las primeras etapas, la IA estaba orientada a resolver problemas relacionados con la seguridad, la accesibilidad y la mejora de la vida humana. Sin embargo, en la actualidad, la industria está motivada principalmente por el dinero, con valoraciones multimillonarias y grandes cantidades de inversión en tecnología que aún está lejos de cumplir todas las promesas que se han hecho.

El autor señala que la publicidad y el marketing exagerado de las capacidades de la IA están dando a las personas una impresión equivocada de lo que esta tecnología es capaz de hacer. Es imprescindible recuperar la misión original de la IA y asegurarse de que su desarrollo esté alineado con el bienestar de la humanidad.

Llamada a la acción

En su libro, Marcus también hace una llamada a la sociedad civil: no podemos quedarnos de brazos cruzados mientras la IA sigue desarrollándose sin control. Aboga por una mayor participación de los ciudadanos, animando a que la gente presione a sus representantes políticos y exija una regulación ética y transparente de la IA. Si conseguimos que suficientes personas se movilicen, podríamos influir en la cultura de Silicon Valley y devolver el control a los consumidores.

En definitiva, el mensaje de Marcus es claro: no podemos permitir que las grandes tecnológicas dominen nuestras vidas sin rendir cuentas. La inteligencia artificial tiene el potencial de mejorar el mundo, pero solo si se desarrolla de manera responsable y con una supervisión adecuada.

En definitiva, el debate entre regulación e innovación es el mismo que hemos visto en cada revolución tecnológica que ha impactado a nuestra sociedad. Encontrar un equilibrio entre ambas es crucial y no cabe duda de que debe ser uno de los puntos centrales de la discusión sobre el futuro de la inteligencia artificial. Sin embargo, desde mi perspectiva, hay un aspecto que me inquieta profundamente y que, en mi opinión, no está recibiendo la atención que merece: el impacto de la IA en el empleo.

Cada día vemos noticias de empresas que despiden a cientos de empleados, justificando la automatización de tareas gracias a la IA. Como empresario, entiendo perfectamente esta tendencia. La optimización de recursos es algo lógico en el mundo empresarial. No obstante, me preocupa el vacío que esta optimización está creando en el mercado laboral. ¿Cómo aseguraremos un futuro en el que las personas puedan tener una vida digna si los trabajos que tradicionalmente sostenían nuestras economías desaparecen? Si cada vez menos personas cotizan, ¿cómo sostendremos los sistemas que garantizan una seguridad social?

Es un tema que no podemos seguir ignorando. La IA está transformando el mundo laboral a una velocidad vertiginosa y aunque las empresas puedan beneficiarse a corto plazo, es imprescindible pensar en las consecuencias a largo plazo. ¿Qué tipo de futuro queremos construir? Es una pregunta que, como sociedad, debemos plantearnos antes de que sea demasiado tarde.

Este post ha sido inspirado por la newsletter «Special Edition: The Deep View talks to Gary Marcus» y sus reflexiones sobre los desafíos y las oportunidades de la IA. The Deep Vew.

Indica tu e-mail para obtener tu cupón

¡Aquí tienes tu regalo!

QUIEROREGALO5

Válido para pedidos en la web

¡Tienes un cupón!
1