Durante esta etapa de lanzamiento de nuestro nuevo sitio web, escríbenos tus dudas, consultas o comentarios al WhatsApp +569 3455 2723.

Sebastián Ansaldo: “Pensar que la IA puede controlar, modificar o destruir el mundo, es darle un poder que no tiene”

Fuente: Ciper Hace algunos días el sociólogo Alfredo Joignant en su “minuto de confianza” del programa Tolerancia Cero expresó su preocupación ante la posibilidad de un cada vez más cercano futuro distópico […]

  • Compartir
  • Facebook
  • Twitter
  • Linkedin
  • Whatsapp

Fuente: Ciper

Hace algunos días el sociólogo Alfredo Joignant en su “minuto de confianza” del programa Tolerancia Cero expresó su preocupación ante la posibilidad de un cada vez más cercano futuro distópico generado en parte por dos fenómenos distintos pero “convergentes”. Uno de esos fenómenos es la irrupción de la Inteligencia Artificial y el otro es el declive de la población mundial debido a la “reducción mundial del deseo de tener niños”. 

En relación al fenómeno de la IA, Joignant señala que “la amenaza es tan inminente que podría estar materializándose ante nuestras propias narices sin que sepamos muy bien cómo esta inteligencia pueda tomar el mando y dejarnos fuera”. Estas expresiones son ejemplos de lo que en inglés se ha denominado “doomerism”, el cual en su forma más extrema promueve la idea de que en algún momento la IA alcanzará conciencia propia y podría aniquilar la humanidad completa. 

Es común que ante nuevas tecnologías los pánicos morales y existenciales se apoderen del discurso público y la cultura popular, pero no es tan común que tales ideas hagan eco en académicos o exponentes de las ciencias sociales, aunque como vemos, sí ocurre. Debido a esta razón parece relevante reflexionar sobre el origen, causas y efectos de estos discursos desde un punto de vista racional y sustentado en lo que nos dicen las ciencias sociales. 

En primer lugar, la idea de que las “máquinas” tomen el control para “dejarnos fuera” o destruir el mundo sigue siendo ciencia ficción y no hay fuente seria desde los estudios académicos sobre tecnología y sociedad que afirmen algo así. Una visión algo más matizada se encuentran en autores como Yuval Noah Harari, quien ha expresado preocupación por lo que podría ocasionar una “inteligencia no-humana”, que desafía nuestros dominios creativos, amenazando con erosionar el tejido de la interacción humana y la democracia al fomentar una intimidad falsa y la posibilidad de manipular el discurso público. Otra fuente de preocupación con menos intensidad de riesgo existencial, pero preocupante es sobre los efectos de la IA en la destrucción de empleos y el cambio en esferas sociales completas como educación, medicina, derecho, etc. 

Sin embargo, todas estas visiones son expresiones de lo que hace varias décadas se ha denominado determinismo tecnológico. Es decir, la idea de que la tecnología determina los procesos sociales como una fuerza autónoma e independiente y con poder causal sobre las estructuras y la agencia personal o colectiva. También hace varias décadas, como respuesta al determinismo, surge la idea de la construcción social de la tecnología, la cual enfatiza que la tecnología no es independiente o autónoma sino producto de decisiones personales y colectivas, contextos sociales, instituciones y condiciones económicas y políticas particulares. Es decir, dejar de pensar en una causalidad unidireccional, lineal y directa sino incluir causalidad inversa o múltiple en la relación entre tecnología y sociedad. 

Nada de esto es nuevo, pero los discursos se repiten. Pensar que la IA puede, desde sí misma, controlar, modificar o destruir el mundo, es darle un poder autónomo que no tiene, y a la vez, quitar responsabilidad a quienes diseñan, desarrollan, controlan y promueven tales sistemas. Más aún, es común que los mismos que participan en la creación y mantenimiento de esta tecnología sean quienes promuevan visiones apocalípticas y de riesgo para la humanidad. Y es entendible que así sea, pues por un lado el “doomerism” aumenta el hype en torno a la IA dándole funcionalidades casi místicas y mágicas emanadas de su “peligrosidad”, incrementando así su valoración en el mercado, y por el otro, les permite desprenderse de responsabilidad y accountability al momento de justificar decisiones de desarrollo y sus consecuencias.  

Sebastián Ansaldo, profesor e investigador del Departamento de Periodismo de la Universidad Alberto Hurtado. Periodista y magister en Comunicación de la Universidad Diego Portales y máster en Sociología y PhD en Educación de la Universidad de Cambridge.

Noticias Relacionadas