Ir a pucv.cl

Artículo 1 de Junio, 2023

INTELIGENCIA ARTIFICIAL (IA): EL GRAN DESAFÍO DE LA SOCIEDAD ACTUAL

¿La IA está en línea con nuestros valores humanos?

BRODERICK CRAWFORD L.

Doctor en Ingeniería Informática UTFSM.  MBA, Universidad de Chile.

Ingeniero Civil en Informática, UTFSM.

Académico, Escuela de  Ingeniería Informática, PUCV

broderick.crawford@pucv.cl

CLAUDIO LEÓN DE LA BARRA S.

Doctor en Ciencias Empresariales, UAM, España.  

Ingeniero Comercial, PUCV.

Académico, Escuela de Negocios y Economía, PUCV.

claudio.leondelabarra@pucv.cl

Los avances en la inteligencia artificial (IA) han llevado a una serie de innovaciones tecnológicas en una amplia gama de campos, desde la medicina hasta la educación, pasando por la robótica y la industria manufacturera. Sin embargo, después de seis décadas de investigación y desarrollo intensivos, alinear los sistemas de IA con los objetivos y valores humanos sigue siendo una tarea difícil de alcanzar, surgiendo preocupaciones sobre los posibles peligros y riesgos asociados con su uso y alcance.

Los riesgos emergentes de la inteligencia artificial

Actualmente se han activado varias alertas sobre peligros asociados a la IA, entre otras:

  • Riesgos para la privacidad y la seguridad: la IA puede recopilar y analizar grandes cantidades de datos personales, lo que aumentalos riesgos de violaciones de la privacidad y la seguridad. Además, los sistemas de IA pueden ser vulnerables a ataques cibernéticos y manipulación de datos.
  • Sesgos y discriminación: los sistemas de IA pueden reflejar los prejuicios y sesgos de los datos utilizados para “entrenar” dichos sistemas, lo que puede llevar a la discriminación y la exclusión de ciertos grupos de personas.
  • Desplazamiento laboral: la IA puede reemplazar trabajos que antes requerían habilidades o esfuerzos humanos, lo que puede derivar en desempleo, desigualdad económica e incluso migraciones.
  • Falta de transparencia y responsabilidad: los sistemas de IA pueden ser opacos y difíciles de entender, lo que puede dificultar la identificación de errores o sesgos y la responsabilidad asociada de creadores y usuarios de la IA.

La inteligencia artificial explicativa

A menudo, los sistemas de inteligencia artificial utilizan modelos y algoritmos complejos que son difíciles de entender para las personas que no son expertas en el campo. Como resultado, puede ser difícil entender cómo se llegó a una determinada decisión o predicción.

Para esta situación, se ha desarrollado la inteligencia artificial explicativa, referida a la capacidad de un sistema de IA para explicar cómo llega a sus decisiones o conclusiones.

Este ámbito de investigación aborda la creación de sistemas de inteligencia artificial transparentes y responsables que permitan una supervisión y control humano efectivos, además de aumentar la confianza en la tecnología y su uso.

El riesgo mayor de la superinteligencia

Es un concepto muy teórico que se ha explorado en la ciencia ficción durante décadas. La superinteligencia es una hipotética capacidad de una máquina o sistema de inteligencia artificial para superar la inteligencia humana en todas las áreas, incluyendo el pensamiento abstracto, la creatividad y la resolución de problemas complejos.

Se ha descrito como un nivel de inteligencia tan superior al humano imposible de comprender o controlar. En la actualidad, algunos expertos en inteligencia artificial están preocupados por el riesgo potencial que conlleva esta superinteligencia, ya que podría representar un riesgo existencial para la humanidad si se desarrolla de manera descontrolada, se utiliza de manera malintencionada o incluso logra cierta autonomía que le permita tomar decisiones autónomas que no sean beneficiosas para la humanidad.

Por estas razones, se está trabajando arduamente en teorías de decisión y ética al desarrollar sistemas de superinteligencia.

Para garantizar un desarrollo seguro y responsable de la IA, es fundamental que los desarrolladores, reguladores y la sociedad en general aborden estos desafíos y trabajen juntos para garantizar que la IA se utilice de manera responsable y beneficiosa para la humanidad.

El desafío es enorme, tanto por los alcances que se vislumbran, como también por la incertidumbre existente; la creatividad humana será –una vez más – esencial al momento de determinar los límites del desarrollo, pero en este caso tendrá que ir acompañada de un completo marco ético, compartido y valorado por los diversos interlocutores existentes, o que están aún por surgir.

Esta condición es imprescindible, por cuanto es primera vez que una tecnología podría desarrollarse por sí misma, siendo incluso autónoma de su creador.

Bajada

Estos desafíos tecnológicos, con sus trascendentales impactos sociales y humanos, son fundamentales de analizarlos y encausarlos en la actualidad, particularmente en el ámbito de las universidades.

Un esfuerzo en tal sentido lo constituye el Doctorado en Industria Inteligente de la Facultad de Ingeniería de la Pontificia Universidad Católica de Valparaíso.