Inteligencia Artificial regulación
La inteligencia artificial amenaza puestos de trabajo pero crea otros. Fuente: The New Yorker

La Revolución de la Inteligencia Artificial (IA) ya es un hecho claro y presente. Su poder de transformación explotó en los últimos meses con la visibilización del Chat GPT 4 a principios del año pasado. Su capacidad de generar oportunidades hasta ahora inaccesibles nos asombra con un boom semanal en la creciente e inconmensurable constelación de aplicaciones que irrumpieron en el mercado. Desde precisos diagnósticos por imágenes, antes imposibles, hasta asombrosas creaciones artísticas pasando por la automación de procesos y la personalización de la atención y la recomendación al cliente, la IA no deja de propagarse y crecer en prestaciones. Sin embargo, a la par de semejantes logros se construyen profundas preocupaciones por una gama amplia de amenazas que esta tecnología trae consigo.

Las revoluciones tecnológicas siempre plantearon impactos sociales, económicos, políticos y culturales. La revolución industrial generó cambios de un modo profundo y duradero, para bien y para mal. La revolución del conocimiento, más aún. El estado de bienestar de la humanidad creció, pero también las asimetrías. Tales transformaciones fueron progresivas y llevaron décadas. La revolución de la IA, en cambio, se caracteriza por una velocidad de desarrollo y propagación que afecta la comprensión profunda de los cambios que genera y de controlar sus consecuencias.

Prácticamente no existe ámbito del conocimiento y de la acción humana que no tenga un impacto directo o potencial de la IA. Su poder asombra: diversas investigaciones proveen evidencia empírica de dicho impacto. En un estudio reciente se asignó un trabajo de análisis y escritura a 453 profesionales universitarios. La mitad de ellos tuvo acceso a Chat GPT. Los resultados ya no sorprenden: el tiempo promedio con esa herramienta bajó en un 40% y la calidad creció en un 18%. Sin embargo, junto a esa capacidad extraordinaria para generar valor, la IA plantea un conjunto de amenazas que frente a la vulnerabilidad del ser humano generan daños ciertos y riesgos para la sociedad.

Existe un consenso generalizado que la IAG plantea amenazas severas que incluyen entre otros, la afectación de derechos humanos por vía del scoring social y la consecuente discriminación, el condicionamiento de las decisiones de consumo, la discriminación, la profundización de inequidades o brechas en función del nivel de acceso y, entre otros, el mal uso de la tecnología para delinquir o para generar actos que afecten la verdad (fake news), la identidad, la integridad, la privacidad, la libertad, la ciberseguridad o la propiedad intelectual de las personas. A este amplio espectro debe sumarse la posibilidad de errores de los más diversos, como por ejemplo el caso de la muerte causada por un vehículo autónomo de Uber o la “alucinación”, que consiste en la posibilidad de inventar datos o hechos inexistentes que ya se hizo evidente y aún no fue suficientemente diagnosticada.

La pérdida masiva de puestos de trabajo se suma a la lista de amenazas con niveles de angustia y pesimismo sin precedentes. La prospectiva estratégica de la IA avizora el crecimiento de la dependencia de la IA en todos los procesos, la concentración consecuente del poder económico, la exacerbación de la desigualdad y el disparo de una carrera armamentista basada en la IA. La falta de transparencia en los procesos que llevan adelante los algoritmos de IA agrava aún más el abordaje de tales amenazas.

Estas amenazas son graves y se iluminan con ejemplos horripilantes. Amazon, por ejemplo, debió desactivar un sistema de selección del talento humano debido a un sesgo favorable a los hombres respecto a las mujeres. Ocurre que los algoritmos de la IAG resuelven sus problemas sobre la base de su entrenamiento previo en, al menos, la infoesfera de internet o la intranet corporativa. Si los “datasets” tienen sesgo, las soluciones también. Y en este caso el sesgo implica discriminación.

Cada paso de avance en IA genera un gran beneficio y a la vez un gran riesgo. El desafío es aprovechar los primeros y prevenir los segundos. La suma de todos los miedos y la ausencia de regulaciones llevan la frontera del avance de la IA al campo de la ética aplicada: se trata de saber que está bien y que está mal en cada caso. La ética aplicada nació como campo de conocimiento teórico y práctico para dar respuesta a tales preguntas. Para tal fin, provee diversos instrumentos de navegación. Desde el punto de vista deontológico, o de la ética del deber, está bien lo que cumple con las normas o preceptos morales (o legales) aplicables. Para la perspectiva teleológica, o de la ética de las consecuencias, está bien lo que produce el mayor bien o el mayor mal. Si estas referencias son débiles para resolver un dilema, el imperativo categórico de Kant provee un salvavidas: está bien lo que puede transformarse en una regla universal y lo que dicta la más profunda conciencia de cada persona.

En el campo de la incorporación de tecnología a la humanidad, la que podría denominarse tecnoética, procura saber que está bien y que está mal en la incorporación de la tecnología a la dinámica humana. Lógicamente, la ética de las consecuencias parece ser la referencia más útil ante la falta de normas que plantea la IA. Las preocupaciones son de amplio espectro. La IA cambia para siempre la forma de hacer, pero también la forma de ser. Las amenazas identificadas nutren agendas de preocupaciones en todos los ámbitos y niveles. La tecnoética procura identificar riesgos y plantear guardarrailes para prevenirlos.

La toma de conciencia

De un modo análogo a lo que sucedió con la energía atómica, la genética o la bioingeniería, la mirada de la tecnoética permite descubrir una agenda creciente de preocupaciones que requieren consensos e instrumentos para potenciar beneficios y prevenir riesgos. En dicha agenda confluyen, naturalmente, intereses cooperativos y competitivos de actores relevantes: los investigadores que día a día fortalecen la tecnología de la IA, las empresas que se nutren del producto de la investigación y despliegan aplicaciones, la sociedad, sujeto de experimentación y de transformaciones emergentes, y los gobiernos que deberían receptar el mandato de proteger a las personas y promover el bien común.

En el mundo corporativo, como era lógico, los perjuicios fueron identificados tempranamente y la búsqueda de límites éticos pasó de las ideas a la acción. En 2017 Google, Amazon, IBM, DeepMind, Microsoft y Apple unieron sus fuerzas para crear Partnership on AI, una iniciativa que tiene por propósito el desarrollo responsable de Inteligencia Artificial. Esta organización tiene hoy un conjunto de programas orientados a promover responsabilidad en toda la cadena de valor de la IA que incluyen la equidad, transparencia y responsabilidad en el desarrollo y despliegue de algoritmos; la ponderación del impacto económico y laboral y la integridad en la comunicación sobre IA. Partnership on IA ha crecido incesantemente y hoy se compone de 113 instituciones de 18 países incluyendo empresas, universidades, ONG´s y medios de comunicación.

En el más alto nivel de la comunidad internacional, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), promueve a fin de 2021 las Recomendaciones Éticas sobre la Inteligencia Artificial, “reconociendo el profundo y dinámico impacto positivo y negativo de la inteligencia artificial en las sociedades, el medio ambiente, los ecosistemas y la vida humana, incluyendo la mente humana, en parte a causa de los nuevos modos en que su uso influencia el pensamiento humano ,la interacción y los procesos decisorios…”. Este instrumento, basa las recomendaciones en 4 valores centrales que incluyen la protección de los derechos y la dignidad humana, la vida en paz en sociedades justas e interconectadas, el aseguramiento de la diversidad y la inclusión y el fortalecimiento del medio ambiente y los ecosistemas. Desde un punto de vista de la ética aplicada, propone 10 principios rectores de la acción que deben llevar a cabo los gobiernos, las empresas y las sociedades:

  • Proporcionalidad y Necesidad: los sistemas de IA deben usarse en la medida de lo necesario y no causar daño.
  • Identificación y Prevención de Riesgos.
  • Protección de los datos y la privacidad.
  • Respeto por la soberanía de los estados y constitución de una gobernanza que atienda a todos los interesados.
  • Responsabilidad y rendición de cuentas. Los sistemas deben ser diseñados y usados de modo que exista trazabilidad por las consecuencias.
  • Transparencia y explicabilidad. Los sistemas deben ser transparentes en sus procesos internos y explicables para el ser humano.
  • Supervisión humana. Los estados deben asumir la responsabilidad final de supervisar la trazabilidad en la rendición de cuentas.
  • Sostenibilidad. Los ecosistemas deben estar alineados con los Objetivos de Desarrollo Sustentable de ONU.
  • Conocimiento y conciencia pública. Los estados miembros deben garantizar la difusión y educación sobre la IA con el fin de crear conciencia.
  • Justicia en el acceso, los procesos y los productos de la IA asegurando la no discriminación.

Este decálogo es una plataforma base para la comunidad internacional. Su potencialidad para generar políticas públicas depende de los líderes de la industria, el gobierno y la sociedad civil. La porosidad de las fronteras a la conectividad global en general y, en particular a las aplicaciones de la IAG, plantean la necesidad de consensos e instrumentos para una gobernanza global de la IAG, que para muchos, es más imprescindible que la que en su momento generó la energía atómica.

La Organización para la Cooperación Económica y el Desarrollo (OCDE), ha desarrollado plataformas de conocimiento y recomendaciones de gran valor para el diseño de políticas públicas. En relación con las amenazas en el campo de la ética, ha desarrollado un Observatorio de Políticas Públicas en IA que, entre sus herramientas, dispone de un Monitor de Incidentes de AI, en el cual se capturan casos a través de artículos periodísticos en todo el mundo. Si bien se trata de un indicador proxy de la realidad (del hecho al artículo hay mucho trecho), la evolución de la cantidad de incidentes agrega un sentido de urgencia a la necesidad de desarrollar políticas públicas. En efecto, de 40 incidentes mensuales en 2020, el indicador trepa a 600 a mediados de 2023 según se observa en la Figura 1. Cada incidente está categorizado en función del tipo del principio de IA impactado. Los más frecuentes incluyen: derechos humanos (267), transparencia (270) y privacidad. (223). La aplicación también permite categorizar por países: EEUU (191), India (84), Reino Unido 81 y China (24). El crecimiento de estos indicadores, que se explica en parte por la irrupción explosiva del Chat GPT 4 a principios de 2023 y otras aplicaciones de IAG, implica de por sí una alarma. La cantidad de incidentes en los cuales se vulnera alguno de los principios de ética en IA se encuentra, claramente, en una pendiente de crecimiento.

Inteligencia Artificial regulación
El crecimiento de incidentes vinculados a daños de la IA es alarmante. Fuente: OECD

La necesidad de regular

La ley es la ética codificada. Los consensos requeridos para regular no alcanzan a satisfacer todos los intereses. El poder condiciona la regulación. A su vez esta modula el ejercicio del poder. La dinámica del cui bono es la única forma de explicar el ejercicio del poder en general y más aún en el incierto campo de AI. Para Henry Farrel, de la John Hopkins University, no hay “consenso sobre cuáles son los problemas que necesitamos gobernar, y mucho menos cómo es que debamos gobernarlos”. El debate en torno al despliegue de IA tiene tres aristas: de qué hay que preocuparse, que hay que regular y que no y cómo controlar esa regulación. El espectro es amplio.

En los Estados Unidos, grupos de interés claman por una Declaración de Derechos frente a la IA del tamaño de la de 1791 que fue pilar fundacional del país. Desde esa posición, los algoritmos deciden primero mientras que la diligencia debida es un pensamiento posterior y no vinculante. Canadá se orienta hacia la evaluación de las herramientas antes de liberar su uso. La Comisión Europea promulgó en junio de 2023 la Ley de Inteligencia Artificial que tiene un abordaje centrado en el riesgo para la salud y los derechos humanos que se explica por sí misma en lo conceptual en la Figura 2.

La regulación es creciente en cuanto a restricciones en función del riesgo apreciado. Las distintas orientaciones para la regulación explican las dudas que genera el impacto de la IA en la sociedad. La responsabilidad final del impacto de la IA en la humanidad está en los gobiernos y en su competencia, determinación y honestidad para que la dirección final de la regulación capture los parámetros éticos profundos del bien y del mal en cada caso.

Inteligencia Artificial regulación
Ley de Inteligencia Artificial en la UE, niveles de riesgo. Fuente: Comisión Europea

Se trata de un asunto complejo en el cual las relaciones de causa y efecto no son tan evidentes. La toma de conciencia por parte de la sociedad acerca de los beneficios y riesgos de la IA pasa a ser vital en la dirección que tome la regulación, que ante todo, debe ser inteligente.

Las universidades y las organizaciones de la sociedad civil adquieren un rol tan trascendente como irreemplazable en la difusión del debate y de perspectivas para alimentarlo. En nuestro país, la Sociedad Argentina de Inteligencia Artificial ha asumido ese desafío y promueve iniciativas relevantes para la difusión de riesgos y oportunidades.

La obligación moral de los líderes no se satisface sólo con prevenir riesgos. Promover las capacidades en IA como fuente de riqueza y bienestar es parte de esa obligación moral. La IA genera una nueva división en la humanidad: quienes se monten en la ola, serán más prósperos, quienes la pierdan sufrirán un subdesarrollo más irreversible que el de la revolución industrial o la revolución del conocimiento.