lamarea.com
  • La Marea
  • Kiosco
  • Climática
  • Contacto
DONA SUSCRÍBETE
SUSCRÍBETE
Iniciar sesión
  • Internacional
  • Cultura
  • Política
  • Sociedad
  • Opinión
  • Medio ambiente
  • Economía
  • Revista
  • Internacional
  • Cultura
  • Política
  • Sociedad
  • Opinión
  • Medio ambiente
  • Economía
  • Revista
ANTERIOR

La Inteligencia Artificial: el último capítulo del capitalismo de la vigilancia

SIGUIENTE
SUSCRÍBETE DESDE 17€. Además, si verificas que eres humano con el código HUMANA, te llevas un 10% de descuento en tu suscripción a la revista

Opinión

La Inteligencia Artificial: el último capítulo del capitalismo de la vigilancia

"Si ya habitamos un mundo de fanatismos, asaltos al Capitolio, desencanto y descrédito del periodismo y la política, la nueva IA tendría un potencial gigante para amplificar estos problemas", analiza Azahara Palomeque.

El presidente del Gobierno y el consejero delegado de OpenAI durante su encuentro en La Moncloa. POOL MONCLOA / FERNANDO CALVO
Azahara Palomeque
23 mayo 2023 Una lectura de 6 minutos
Telegram Linkedin Url

La semana pasada escribí un artículo sobre la sesión que tuvo lugar en el Capitolio en relación con la Inteligencia Artificial (IA) generativa, en la que compareció el CEO de OpenAI (la empresa impulsora de ChatGPT), Sam Altman. Era una pieza informativa que sintetizaba el diálogo mantenido en dicha sesión, donde también participaron senadores y expertos y, para mi sorpresa, se situó inmediatamente entre las más leídas de este medio.

Sin embargo, después de publicarla, me quedé con la sensación de que le faltaba análisis; de que satisfacía la necesidad inmediata de contar esa reunión en el Capitolio, pero carecía de un contexto más amplio donde ubicarla y entenderla. Para intentar remediar esos fallos, escribo ahora este otro artículo complementario.

Capitalismo de la vigilancia

Lo primero es señalar las coordenadas históricas en que nace la IA y cómo esta nueva versión se diferencia de las anteriores. El “capitalismo de la vigilancia”, explica la investigadora y profesora emérita de Harvard Shoshana Zuboff, es el sistema que surge en torno a 2002 basado en la extracción de datos personales, resultado de nuestra interacción con los ya ubicuos espacios digitales (webs, tarjetas de crédito, apps, ordenador del coche, la Roomba o cualquier cosa que lleve Internet), a partir de la cual generar predicciones sobre nuestras conductas, que luego son vendidas sin consentimiento y para fines más o menos espurios.

En un marco legal insuficiente, por mucho que Meta haya sido multada en Irlanda por violar la privacidad de los usuarios (ciudadanos), se da una competición empresarial exacerbada dirigida a acumular trazos cada vez más íntimos de nuestra experiencia y, ya no sólo predecir comportamientos, sino también modificarlos. Se trata, dice Zuboff, de “transformar el mercado en un proyecto de certeza total”, pues, una vez sabido cómo pensamos, sentimos, qué nos duele o nos emociona, es muy fácil manipularnos con el objetivo de que compremos ciertos productos, y hasta de que votemos en una u otra dirección –justamente lo que ocurrió con el escándalo de Cambridge Analytica–. En estos procesos interviene la Inteligencia Artificial no generativa de los algoritmos, que analizan los datos y aprenden de ellos. 

Ahora bien, advierte el profesor emérito de Ciencia Neuronal y Psicología en la Universidad de Nueva York Gaby Marcus: para que Rusia pudiera interferir en las elecciones norteamericanas de 2016 tuvo que gastarse cantidades millonarias en la producción de desinformación (principalmente en la creación y difusión de anuncios malintencionados en redes) y, con una herramienta como la IA generativa, los costes habrían sido prácticamente nulos. Esto es así porque herramientas como ChatGPT –y otras similares– no reproducen mensajes, sino que los fabrican, a partir de datos –desconocidos hasta ahora– que actúan de combustible, con un alto nivel de verosimilitud, no de veracidad. 

Consecuencias devastadoras

Las consecuencias pueden ser absolutamente devastadoras en un clima ya afectado por la posverdad algorítmica, donde abundan las fake news, muchos gobiernos o partidos políticos han adoptado las estrategias trumpistas de institucionalización de la mentira, y el lucro de la élite ha quebrado los cimientos de la democracia. Estamos hablando de campañas masivas destinadas a alterar procesos electorales, pero también de la suplantación de identidades gracias a fotografías que parecen reales, programas de clonación de voz, y un más que probable incremento de los ataques cibernéticos, a lo que se sumaría la falsificación de pruebas judiciales y, por consiguiente, una casi total incapacidad humana para distinguir qué es cierto y qué no, con la lógica pérdida de confianza en las instituciones. Si ya habitamos un mundo de fanatismos, asaltos al Capitolio, desencanto y descrédito del periodismo y la política, la nueva IA tendría un potencial gigante para amplificar estos problemas. 

Se ha hablado también de la posibilidad de integrarla en armamento que funcionaría de manera autónoma; de la degradación de las prácticas educativas (millones de estudiantes ya utilizan ChatGPT para sus trabajos, a pesar de que incorpora información falsa) y la merma de inteligencia colectiva que esto supone; de las dificultades para producir investigación científica fiable si, de repente, una marea de papers ficticios lo inunda todo; de una inestabilidad social insoportable que puede conducir a conflictos y respondería asimismo a la eliminación sustancial de empleos que serían sustituidos por máquinas “inteligentes”.

Con el fin de calmar los ánimos, algunos apuntan a los beneficios de la IA, por ejemplo, en el sector sanitario. El Dr. Isaac Kohane, profesor en Harvard, afirmaba en esta entrevista que, como faltan médicos de atención primaria en EEUU, la Inteligencia Artificial podría usarse para responder a las cuestiones de los pacientes, ofrecer diagnósticos y recomendar tratamientos. Lo curioso es que en ningún momento sugiere la contratación de más facultativos, lo cual invita a pensar en una automatización de la sanidad, privada de contacto humano y dependiente de artilugios no regulados, programados sin ningún tipo de transparencia que –según sus creadores– pueden sufrir “alucinaciones”, es decir, generar mentiras mientras perpetran lo que Naomi Klein ha llamado “el mayor robo de la historia” al caer en manos de unas pocas empresas poderosísimas todo el conocimiento humano. 

Matices de la regulación

Los magnates de estas corporaciones son completamente conscientes; de ahí que Altman se haya acercado primero a los congresistas de su país, movido por el afán de colaborar a favor de que se regule su criatura, y ahora se halle de gira por Europa persiguiendo el mismo propósito. La pregunta de qué organismos, existentes o futuros, se encargarán de supervisar un monstruo capaz de destruir los pilares de la vida como los hemos conocido ha centrado la conversación de Altman con Pedro Sánchez, de igual forma que ya lo hizo en la sesión del Senado estadounidense, donde la ejecutiva de IBM Christina Montgomery enfatizó varias veces la necesidad de regular los contextos de aplicación de la IA, pero no la innovación tecnológica, dejando claro que el monstruo seguirá creciendo mientras los lentos marcos jurídicos se actualizan –si lo hacen–.

Se replicaría así la situación de los primeros pasos del capitalismo de la vigilancia (el extractivismo impune de la intimidad), hoy imparable. De todo ello podría inferirse que la petición de regulación por parte de Altman obedece más bien a la búsqueda de connivencia gubernamental con el avance de la IA, y a la creación de ciertos permisos o licencias que sirvan para evitar las peores consecuencias –por ejemplo: en el desarrollo de escenarios bélicos, y no es casual la constante comparación con las armas nucleares–, pero también para blindar legalmente a las empresas del oligopolio frente al daño infligido en otros ámbitos. 

Dados los antecedentes del fenómeno, las grietas jurídicas en que se inserta y las amenazas democráticas que plantea dentro de un panorama donde, de por sí, la democracia cada vez garantiza menos derechos, la pregunta quizá debería ser: ¿ofrece algún horizonte de mejora social la IA? Recular antes que prosperar en desastres es algo que aún no está sobre la mesa.

Telegram Linkedin Url

Si te gusta este artículo, apóyanos con una donación.

€

¿Sabes lo que cuesta este artículo?

Publicar esta pieza ha requerido la participación de varias personas. Un artículo es siempre un trabajo de equipo en el que participan periodistas, responsables de edición de texto e imágenes, programación, redes sociales… Según la complejidad del tema, sobre todo si es un reportaje de investigación, el coste será más o menos elevado. La principal fuente de financiación de lamarea.com son las suscripciones. Si crees en el periodismo independiente, colabora.

Suscríbete dona
Artículos relacionados

El creador de ChatGPT: "Mi mayor miedo es causar un daño sustancial al mundo. Si la IA sale mal, puede salir muy mal"

Azahara Palomeque
18 mayo 2023

AlgoRace, una herramienta contra el uso racista de la Inteligencia Artificial

La Marea
18 enero 2022
Comentarios
  1. oblivion dice:
    07/06/2023 a las 00:11

    Los medios virtuales es en lo que vivimos hoy. Y virtuales son, como los políticos, construidos por una inteligencia artificial. No da para más. Es un capitalismo fake que no da para más.

    Responder
  2. Chorche dice:
    06/06/2023 a las 14:33

    Que necesarios y de agradecer son tus artículos sobre IA, Azahara.
    Que suerte que contemos con personas con una mente despierta como la tuya.
    ********************************
    …los riesgos del uso de los sistemas de inteligencia artificial son reales y mucho más vastos que lo que se ha planteado hasta ahora. El control es solo uno de los problemas que plantean estos sistemas, que sin que nos demos cuenta se están convirtiendo peligrosamente en una parte de nuestra vida.
    la digitalización y los sistemas de inteligencia artificial demandan enormes cantidades de energía, materiales y agua, y generan grandes cantidades de basura contaminante difícil de gestionar. Los centros de datos de las grandes tecnológicas consumen energía en forma continua y grandes cantidades de agua para refrigerar los sistemas, y están entre los cinco principales consumidores de energía en EEUU.
    … El entrenamiento de un solo sistema de inteligencia artificial consume energía equivalente al gasto anual de 1200 hogares en EEUU y emite grandes cantidades de carbono. Esto se debe a la cantidad de parámetros o variables utilizados en los sistemas de inteligencia artificial, lo que hace que el entrenamiento deba ser renovado y aumentado constantemente para lograr mantenerlo actualizado….
    (Inteligencia artificial, ¿beneficio o amenaza?- Aday Quesada)

    Responder

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Lo más leído

  • Así destruye Israel la Franja de Gaza (600 días después)
  • Javier López Alós: “Es utópico pensar que el capitalismo puede ser el espacio de felicidad de la gente”
  • Deka Mohamed Osman: “Contar la historia de Samia me salvó la vida y me permitió cumplir mi sueño de ser cineasta”
  • No son días buenos para Ayuso
  • No puedo comer tanto como me gustaría vomitar

Actualidad

  • Internacional
  • Cultura
  • Política
  • Clima
  • Sociedad

Conócenos

  • La Marea
  • Cooperativistas
  • Transparencia
  • Política de cookies
  • Política de privacidad

Kiosco

  • Suscripciones
  • Revistas
  • Libros
  • Cursos
  • Descuentos
  • Contacto

Síguenos

Apúntate a nuestra newsletter

Apúntate
La Marea

La Marea es un medio editado por la cooperativa Más Público. Sin accionistas detrás. Sin publirreportajes. Colabora con una suscripción o una donación

MásPúblico sociedad cooperativa. Licencia CC BY-SA 3.0.

Compartir a través de

Este portal web únicamente utiliza cookies propias con finalidad técnica y necesarias para el funcionamiento de la web, no recaba ni cede datos de carácter personal de los usuarios sin su conocimiento. Sin embargo, contiene enlaces a sitios web de terceros con políticas de privacidad ajenas a la de LaMarea que usted podrá decidir si acepta o no cuando acceda a ellos. Leer más

AceptarResumen de privacidad
Política de Cookies

Resumen de privacidad

Este portal web únicamente utiliza cookies propias con finalidad técnica y necesarias para el funcionamiento de la web, no recaba ni cede datos de carácter personal de los usuarios sin su conocimiento. Sin embargo, contiene enlaces a sitios web de terceros con políticas de privacidad ajenas a la de LaMarea que usted podrá decidir si acepta o no cuando acceda a ellos.
Funcionales
Siempre habilitado

Las cookies funcionales son esenciales para garantizar el correcto funcionamiento de nuestro sitio web, ya que proporcionan funcionalidades necesarias. Desactivarlas podría afectar negativamente a la experiencia de navegación y a la operatividad del sitio.

Guardar y aceptar
OSZAR »