Los desafíos del phishing en el sector bancario: Protegiendo la seguridad en tiempos de ciberamenazas
marzo 4, 2024
La construcción social del cibercuerpo en la posmodernidad
marzo 5, 2024

Inteligencia artificial y algunos impactos éticos en la época contemporánea

Introducción

La inteligencia artificial (IA) se ha convertido en un pilar fundamental en el desarrollo tecnológico y científico de la época contemporánea, abarcando un espectro amplio de aplicaciones que van desde la mejora de dispositivos médicos hasta la personalización de experiencias en el ámbito digital. Sin embargo, el avance acelerado de esta tecnología plantea importantes cuestiones éticas que requieren una reflexión profunda y multidisciplinaria. Este análisis se propone explorar algunos de los impactos éticos significativos asociados con la IA, abordando desde la problemática del uso y la propiedad de los datos hasta las implicaciones de los sesgos algorítmicos  y la transparencia de los sistemas autónomos. A través de un análisis crítico, se busca comprender no solo los beneficios que la IA puede aportar a la sociedad, sino también los desafíos que plantea en términos de equidad y privacidad.

 

Inteligencia artificial y algunos impactos éticos en la época contemporánea.

Hay numerosas definiciones de Inteligencia Artificial. Según Kaufman: La inteligencia artificial hace referencia a un campo del conocimiento vinculado al lenguaje y la inteligencia, el razonamiento, el aprendizaje y la resolución de problemas. La IA proporciona simbiosis entre humanos y máquinas al acoplar sistemas de inteligencia artificial al cuerpo humano ( prótesis cerebrales, brazos biónicos, células artificiales, rodillas inteligentes y similares) y la interacción entre hombres y máquinas con dos “especies” distintas conectadas (aplicaciones humanas, humanos-algoritmos de IA). Tema de investigación en varias áreas– Computación, Lingüística, Filosofía, Matemáticas, Neurociencia, entre otras– la diversidad de subcampos y actividades, investigaciones y experimentos dificulta describir el estado actual del arte 1. Entre las definiciones destaca una general, acuñada por John McCarthy en una entrevista en el sitio web de la Universidad de Stanford: “la inteligencia artificial es la ciencia y la ingeniería de fabricar máquinas inteligentes, especialmente programas informáticos inteligentes”.

La idea de crear una máquina que pudiera aprender es mucho más antigua que los hitos iniciales de la IA. Aunque existen contradicciones en la literatura, los estudios y experimentos del científico británico Alan Turing a veces se consideran parte de la prehistoria de la IA, aunque el término “Inteligencia Artificial” aún no se había acuñado. Como “padre de la informática”, Turing plantea en su artículo “Maquinaria informática e inteligencia” la cuestión de la capacidad de las máquinas para pensar. En algunos extractos, el tema recurrente es que las máquinas pueden alcanzar la capacidad de la mente humana:

 

En el caso del reconocimiento de voz e imagen, en entornos públicos y con fines de vigilancia, persiste el problema del sesgo

 

 

Como expliqué, el problema es principalmente de programación. También será necesario realizar avances en ingeniería, pero parece poco probable que no sean adecuados a las necesidades. Las estimaciones de la capacidad de almacenamiento del cerebro oscilan entre 1010 y 1015 dígitos binarios. Tiendo hacia los valores más bajos y creo que sólo una fracción muy pequeña se utiliza para los tipos de pensamiento superiores.

 

A pesar de los esfuerzos anteriores, el evento inaugural en el desarrollo de la IA –cuando se creó el término “Inteligencia Artificial”– fue la conferencia Dartmouth Summer Research Project on Artificial Intelligence, celebrada en 1956, en los Estados Unidos. No se obtuvieron grandes resultados, pero el encuentro de investigadores generó interés y material para los años siguientes. Los primeros años de la IA estuvieron llenos de éxitos limitados, funciones de las computadoras y técnicas de programación primitivas.

En el trabajo Máquinas predictivas, centrado principalmente en el impacto económico que provoca el desarrollo de la IA, Agrawal dedica un capítulo a que la predicción, una característica de la técnica de aprendizaje profundo de la IA, tendrá un impacto cada vez mayor en el ahorro al abaratar el coste de la previsión, para situaciones específicas, tanto para gobiernos como para empresas privadas. Este poder para romper con las viejas lógicas económicas es un factor que justifica que la IA se haya desarrollado y extendido tan rápidamente en la última década.

Cuando el precio de un producto baja, lo utilizamos más. Esto es economía básica y está sucediendo ahora con la Inteligencia Artificial. La IA está en todas partes: integrada en las aplicaciones de su teléfono, optimizando sus redes eléctricas y reemplazando a su administrador de cartera de acciones. Pronto podrán transportarte y enviar paquetes a tu casa5.

Debido a su naturaleza disruptiva, la tendencia es que la IA se convierta en la tecnología de uso general del siglo XXI, como lo fueron la máquina de vapor, la electricidad y la informática. Klinger y otros autores publicaron un mapeo del desarrollo de la IA, presentado a la Universidad de Cornell, Nueva York, en Estados Unidos, basado en el principio del impacto sistémico que causa en la sociedad:

¿Qué tienen en común la máquina de vapor, el motor eléctrico y el microprocesador? Todas ellas son poderosas tecnologías de propósito general (TUG) que se pueden aplicar en múltiples sectores creando olas de cambio que se extienden por toda la economía. No es coincidencia que las eras económicas a menudo reciban el nombre de sus TUG “centrales”: la Era del Vapor, la Era de la Electricidad, la Revolución y, hoy en día, una “Segunda Era de la quina” impulsada por los avances en la Inteligencia Artificial (AI). La aparición de un TUG también podría cambiar la suerte económica de naciones y regiones: es difícil separar el predominio de Gran Bretaña de la máquina de vapor, o el de Estados Unidos de la electrificación y el motor de combustión6. Con esta presencia extensa e intensa en la sociedad, los impactos del desarrollo de la IA presentan beneficios para la sociedad –instituciones, gobiernos y ciudadanos–, pero también desafíos éticos. ¿Qué ganamos y qué perdemos al usarlo? Hay varios dilemas por explorar, por lo que este ensayo breve se centrará en algunos de los impactos éticos, considerados factores críticos en la transformación de lo que entendemos como “pensamiento crítico”.

Los fundamentos de las cuestiones éticas de la IA El impacto ético más evidente que se ha apoderado de los debates sobre políticas de privacidad públicas en todo el mundo es la cuestión del uso de datos por parte de los sistemas de Inteligencia Artificial. La técnica de aprendizaje profundo no existiría sin la cantidad de datos digitalizados disponibles en Internet, ya que la eficiencia de los resultados depende de grandes conjuntos de datos de calidad. El mayor problema surge en el uso de datos personales Es importante recordar que Big Data no se trata sólo de la dimensión del volumen, como parece a primera vista, sino que también existe una inmensa variedad de datos, dentro y fuera de las empresas (recolectados de las redes sociales, por ejemplo) que necesitan ser validado (tener veracidad para ser utilizado y procesado a una velocidad adecuada para tener valor en el negocio. La fórmula entonces Big Data = volumen + variedad + velocidad + veracidad, generando valor7. Cualquier interacción con dispositivos digitales y/o entornos en línea deja rastros, algunos voluntarios, como publicaciones en redes sociales –Facebook, Twitter e Instagram– y otros involuntarios, como el acceso en línea a resultados de exámenes médicos.

La pregunta central es ¿quién es el propietario de los datos generados por los usuarios? Las empresas pueden utilizarlos como deseen, con fines comerciales. En la economía de datos, o “economía impulsada por los datos”, los usuarios pagan los servicios teóricamente “gratuitos” con sus datos: las grandes empresas de tecnología, conocidas como big techs, detienen ese gran volumen de datos. Las consecuencias de esta posesión son la concentración del poder que, según Pierre Lévy, crea una nueva forma de poder económico y político, 9que puede denominarse “Estado de plataforma”; otra consecuencia, esta más evidente, es la capacidad de vigilancia a través de datos.

La filósofa estadounidense Shoshana Zuboff acuñó el término “capitalismo de vigilancia” (una consecuencia de la economía basada en datos) y sugiere que la civilización será moldeada por este modelo económico: Ahora, las persistentes cuestiones de autoridad y poder deben abordarse dentro del marco más amplio posible, mejor definido como civilización o, específicamente, civilización de la información. ¿Quién aprende de los flujos globales de datos, cómo y qué? ¿Quién decide? ¿Qué sucede cuando la autoridad falla? ¿Qué lógica de acumulación dará forma a las respuestas a estas preguntas? Reconocer su escala civilizatoria da fuerza y urgencia a estas nuevas preguntas. Sus respuestas han moldeado el carácter de la civilización de la información a lo largo de este siglo, del mismo modo que la lógica del capitalismo industrial y sus sucesores han moldeado el carácter de la civilización industrial durante los dos últimos siglos.

Al observar más de cerca cómo funcionan los algoritmos de IA, no se pueden ignorar otros desafíos éticos. El uso de datos por parte de los sistemas de IA no tiene que ver sólo con la cantidad, sino también con su calidad. De esta manera, las bases de datos sesgadas pueden producir resultados y predicciones sesgados. Según Karen Hao11, pueden producirse resultados sesgados como resultado de la recopilación de datos en diferentes etapas durante el proceso de aprendizaje profundo. En un primer momento, la propia problematización del desarrollador del algoritmo, al crearlo, puede contener un sesgo -por ejemplo, definir que, para evitar pérdidas, se dice que la compañía de tarjetas de crédito evita un determinado perfil de cliente.

Y los parámetros éticos del desarrollador son un factor crítico aquí. Un segundo paso es la recopilación de datos por parte del algoritmo (los llamados “datos de entrenamiento”), que en sí mismos pueden estar sesgados o incluso prejuiciosos (como entrenar el algoritmo con imágenes principalmente de personas blancas). Finalmente, en la generación de atributos algorítmicos (que en los sistemas de IA también se denominan “pesos”), es decir, en la preparación de datos, se puede resaltar el sesgo (si no están bien estudiados, atributos como género, grupo de edad o la experiencia genera distorsiones). Esto es lo que la gente suele llamar el “arte” del aprendizaje profundo: elegir qué atributos considerar o ignorar puede influir significativamente en la precisión de la predicción del modelo. Pero si bien su impacto en la precisión es fácil de medir, su impacto en el sesgo del modelo no lo es12. Hao sostiene, entre las tres posibilidades de sesgo en los algoritmos de IA, que los factores sociales y humanos son partes intrínsecas del problema.

En otras palabras, el problema del sesgo, hasta el punto presentado por ella, es el resultado de la interacción a priori humano-algoritmo. Evidencias sobre la cuestión ética, como casos de sesgo en los resultados de los algoritmos, han salido a la luz en forma de documentales y reportajes de prensa, convirtiéndose así en un tema cada vez más común en el debate público. Un evento de la gran tecnológica Amazon se volvió emblemático a través de un informe de Reuters en 2018: un sistema de selección de candidatos de 2015 clasificaba a los empleados con hasta 5 estrellas, pero la empresa se dio cuenta de que el sistema de IA discriminaba a las mujeres. Esto se debe a que los modelos informáticos de Amazon fueron entrenados para evaluar candidatos observando patrones en los currículums presentados a la empresa durante un período de 10 años.

La mayoría procedía de hombres, un reflejo del dominio masculino en toda la industria tecnológica. El sistema de Amazon aprendió por sí mismo que los candidatos masculinos eran preferibles. Penalizó los currículums que incluían la palabra “femenino”, como en “capitana del club de ajedrez femenino”. Y degradó a los graduados de dos universidades exclusivamente para mujeres, según personas familiarizadas con el asunto.

mayoría procedía de hombres, un reflejo del dominio masculino en toda la industria tecnológica. El sistema de Amazon aprendió por sí mismo que los candidatos masculinos eran preferibles. Penalizó los currículums que incluían la palabra “femenino”, como en “capitana del club de ajedrez femenino”. Y degradó a los graduados de dos universidades exclusivamente para mujeres, según personas familiarizadas con el asunto

 

En la economía de datos, o “economía impulsada por los datos”, los usuarios pagan los servicios teóricamente “gratuitos” con sus datos

 

En la economía de datos, o “economía impulsada por los datos”, los usuarios pagan los servicios teóricamente “gratuitos” con sus datos público y comercial generalizado de la tecnología. De hecho, desde hace algún tiempo se utilizan aplicaciones limitadas de reconocimiento facial en las fronteras o en plataformas en línea. A medida que la sofisticación de las tecnologías de IA se ha acelerado en los últimos años, han comenzado a implementarse aplicaciones más amplias de la tecnología de reconocimiento facial. Los avances en visión por computadora y sistemas probabilísticos han mejorado la precisión de las tecnologías de reconocimiento facial, han permitido su aplicación en entornos no controlados y han ampliado sus capacidades para incluir la detección y el reconocimiento de emociones.

En el documental Coded Bias, de 2020, Joy Buolamwini, investigadora del Instituto Tecnológico de Massachusetts (MIT), explora la cuestión racial en los procedimientos de reconocimiento facial15. En un experimento en el MIT Media Lab, Buolamwini coloca su rostro frente a una pantalla con un dispositivo de Inteligencia Artificial y no es reconocida. Sin embargo, al llevar una mascarilla blanca, el sistema puede detectarla. La investigación continúa en el documento en interacción con otras iniciativas que demuestran que muchas bases de datos adoptadas para entrenar algoritmos de IA están sesgadas, generalmente con una proporción desequilibrada de hombres blancos.

 

En el documental Coded Bias, de 2020, Joy Buolamwini, investigadora del Instituto Tecnológico de Massachusetts (MIT), explora la cuestión racial en los procedimientos de reconocimiento facial15. En un experimento en el MIT Media Lab, Buolamwini coloca su rostro frente a una pantalla con un dispositivo de Inteligencia Artificial y no es reconocida. Sin embargo, al llevar una mascarilla blanca, el sistema puede detectarla. La investigación continúa en el documento en interacción con otras iniciativas que demuestran que muchas bases de datos adoptadas para entrenar algoritmos de IA están sesgadas, generalmente con una proporción desequilibrada de hombres blancos.

 

Los resultados mostraron evidencia de que las variables lingüísticas influyen en el rumbo del 14 AMABLE, Carly. Tecnologías biométricas y de reconocimiento facial: ¿hacia dónde sigue? Instituto Ada Lovelace , 2 de julio. 2019. Disponible en : https://www.adalovelaceinstitute. org/blog/biometrics-and-facial-recognition-technology-where-next/ . Consultado el: 13 de marzo. 2023. 15 Sesgo codificado . Directora : Shalini Kantayya. Estados Unidos/ China/Reino Unido: Netflix, 2020. diálogo (como cambiar el contexto del diálogo por parte del asistente, para servir al usuario de alguna manera y adaptar el discurso del usuario para ser atendido). Además, los resultados indican que el AVI no tiene en cuenta adecuadamente las diferencias regionales cuando, por ejemplo, se producen errores de pronunciación.

Con el objetivo de organizar históricamente la cuestión ética del prejuicio racial vinculado a los algoritmos, Tarcísio Silva17creó una línea de tiempo dinámica, que se actualiza semanalmente con noticias que sirven como hitos. Como punto de partida18, posiciona la noticia de 2018 sobre las cámaras Nikon que no reconocen rostros asiáticos. Como última noticia, de mayo de 2022, el tweet19 de un usuario que denuncia al sitio de referencia visual Canva por haber presentado, en las doce primeras páginas de búsqueda de la palabra “novias”, únicamente imágenes de mujeres blancas. También hay procesos intrínsecos al aprendizaje de algoritmos, que ni siquiera los desarrolladores son capaces de ver o explicar, y que la literatura académica ha denominado “no explicabilidad algorítmica” o “caja negra”.

La arquitectura de esta técnica se compone de varias capas intermedias (llamadas “ocultas”, de ahí el nombre de redes neuronales profundas) que interpretan una imagen no perceptible para los seres humanos (patrones invisibles). La alta dimensionalidad de los modelos (valores y número de píxeles, por ejemplo, en el reconocimiento de una imagen) requiere matemáticas complejas, agravando aún más la dificultad de comprensión por parte de los usuarios (de hecho, trasciende la capacidad cognitiva o humana).

Todo el sesgo de resultados que proporciona la IA ha llevado a los expertos a cuestionarse si la toma de decisiones debería delegarse en estos sistemas, que muchas veces no presentan la transparencia necesaria para que dichos resultados puedan justificarse.

Todo el sesgo de resultados que proporciona la IA ha llevado a los expertos a cuestionarse si la toma de decisiones debería delegarse en estos sistemas, que muchas veces no presentan la transparencia necesaria para que dichos resultados puedan justificarse.

Todo el sesgo de resultados que proporciona la IA ha llevado a los expertos a cuestionarse si la toma de decisiones debería delegarse en estos sistemas, que muchas veces no presentan la transparencia necesaria para que dichos resultados puedan justificarse.

 

Conclusión

 

La Inteligencia Artificial representa un avance tecnológico con el potencial de transformar radicalmente nuestra sociedad, economía y vida cotidiana. Sin embargo, este desarrollo trae consigo importantes desafíos éticos que deben ser abordados con urgencia y profundidad. Los dilemas sobre la privacidad, la propiedad de los datos, los sesgos algorítmicos y la falta de transparencia en los sistemas autónomos son solo la punta del iceberg en un mar de cuestiones éticas que emergen con la expansión de la IA.

La necesidad de una “ética por diseño” se hace cada vez más evidente, donde los principios éticos deben integrarse desde las etapas iniciales del desarrollo de la IA, asegurando que la tecnología avance de manera que respete los derechos humanos, promueva la equidad y sea inclusiva. La colaboración multidisciplinaria entre expertos en tecnología, filósofos, sociólogos, legisladores y la sociedad en general es fundamental para forjar un camino ético en el desarrollo de la IA.

 

Solo a través de un diálogo inclusivo y la consideración de diversas perspectivas podremos garantizar que la IA sirva al bien común, minimizando sus riesgos y maximizando sus beneficios. La IA tiene el potencial de ser una fuerza poderosa para el progreso humano, siempre y cuando su desarrollo esté guiado por una reflexión ética profunda y un compromiso con los valores fundamentales de la sociedad.

 

 

Referencias

 

  • AGRAWAL, Ajay et al. Máquinas preditivas: a simples economia da inteligência artificial. Rio de Janeiro: Alta Books, 2018.
  • AMABLE, Carly. Tecnologías biométricas y de reconocimiento facial: ¿hacia dónde sigue? Instituto Ada Lovelace, 2 de julio. 2019. Disponible en: https://www.adalovelaceinstitute.org/ blog/biometrics-and-facial-recognition-technology-where-next/. Consultado el: 13 de marzo. 2023.
  • DASTIN, Jeffrey. Amazon elimina el número secreto de reclutamiento de IA que mostraba prejuicios contra las mujeres. Reuters, 10 de octubre. 2018. Disponible en: https://www. reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G. Consultado el: 13 de marzo. 2023.
  • HAO, Karen. Máquinas inteligentes: así es como ocurre realmente el sesgo de la IA y por qué es tan difícil de solucionar. MIT Technology Review, 2019. Disponible en: https://www. technologyreview.com/2019/02/04/137602/this-is-how-aibias-really-happensand-why-its-so-hard-to-fix/. Consultado el: 13 de marzo. 2023.
  • KAUFMAN, Dora. ¿La inteligencia artificial suplantará a la inteligencia humana? São Paulo: Estação das Letras e Cores, 2019. p. 19.
  • KAUFMAN, Dora. Inteligencia artificial: repensar la mediación. Revista Brasileña de Desarrollo, v. 6, núm. 9, 2020.
  • KLINGER, Joel; MATEOS-GARCIA, Juan; STATHOULOPOULOS, Konstantinos. ¿Aprendizaje profundo, cambio profundo? Mapeo del desarrollo de la tecnología de propósito general de inteligencia artificial. Universidad de Cornell, 2018, pág. 2. Disponible en: https://arxiv.org/abs/1808.06355. Consultado el 13 de marzo. 2023.
  • LEVY, Pierre. Cibercultura. São Paulo: Editora 34, 2010.
  • LIMA, Lanna et al. Análisis empírico del sesgo en asistentes personales basados en voz. Actas complementarias de la Conferencia World Wide Web de 2019, 2019, pág. 7. Disponible en: https://www.researchgate.net/publication/333071943_Empirical_Analysis_of_Bias_in_Voice-based_Personal_Assistants. Consultado el: 22 de marzo. 2023.
  • MCCARTHY, John, 2004 Apud KAUFMAN, Dora. ¿La inteligencia artificial suplantará a la inteligencia humana? São Paulo: Estação das Letras e Cores, 2019.
  • MORRO AGUDO, Dudu de. […] “Hola chicos, la acción antirracista de hoy fue una idea que lancé en la plataforma @canva…” 20 de mayo de 2022, 11:17 a.m. Tuit. (Reproducción de redes sociales).
  • ROSA, Adán. ¿Son racistas las cámaras de detección de rostros? Hora, 22 de enero. 2010. Disponible en: https://content.time. com/time/business/article/0,8599,1954643,00.html. Consultado el: 13 de marzo. 2023.
  • Sesgo codificado. Directora: Shalini Kantayya. Estados Unidos/ China/Reino Unido: Netflix, 2020.
  • SILVA, Tarcísio. Cronología del racismo algorítmico. Blog de Tarcísio Silva, 2019. Disponible en: https://tarciziosilva.com.br/ blog/posts/racismo-algoritmico-linha-do-tempo. Consultado el: 21 de junio. 2022.
  • TAURION, César. Grandes datos. Río de Janeiro: Brasport, 2013. p. 12.
  • VILLANI, Cedric. Por una inteligencia artificial significativa: hacia una estrategia francesa y europea, 2018. p. 115-116. Disponible en: https://www.ai4eu.eu/news/meaningful-artificial-intelligencetowards-french-artificial-and-european-strategy. Consultado el: 10 de mayo de 2022.
  • ZUBOFF, Shoshana. El gran otro: capitalismo de vigilancia y perspectivas para una civilización de la información. En: BRUNO, Fernanda et al. Tecnopolítica de vigilancia: perspectivas desde los márgenes. São Paulo: Boitempo, 2018. p. 32.
ALEXANDRE LE VOCI SAYAD
ALEXANDRE LE VOCI SAYAD
alevoci@gmail.com       Periodista, educador y escritor. Tiene una maestria en Inteligencia Artificial y Ética por la PUC-SP y especialista en negocios digitales por la Universidad de California - Berkeley. Sayad es director de ZeitGeist, hub de innovaciones en educación, cultura y medios que desarrolla proyectos globales para empresas, gobiernos y el sector educativo. También és consultor en educación mediática para la sede de la UNESCO en París (Francia).

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *