top of page

Sesgos, racismo y mentiras: afrontar las consecuencias no deseadas de la inteligencia artificial

  • Foto del escritor: La Noticia al Punto
    La Noticia al Punto
  • 5 ene 2021
  • 3 Min. de lectura

Las potentes herramientas digitales que utilizan software de inteligencia artificial ayudan en la lucha contra la COVID-19 y tienen el potencial de mejorar el mundo de muchas otras formas. Sin embargo, a medida que la inteligencia artificial se infiltra en más áreas de la vida diaria, se hace evidente que su mal uso puede provocar daños graves. Por ese motivo, las Naciones Unidas piden una regulación internacional sólida de la tecnología.


Aunque la inteligencia artificial evoca imágenes de máquinas que son capaces de pensar y actuar como las personas humanas, la realidad es más prosaica y tiende a usarse para describir softwares que pueden, hasta cierto punto, "aprender", resolver problemas y encontrar patrones. Esto es particularmente útil cuando es necesario clasificar y comprender grandes cantidades de datos.

Otro concepto erróneo es que, debido al aspecto de autoaprendizaje de la inteligencia artificial, se garantiza que proporcionará resultados más eficientes, confiables y superiores que cualquier cosa que los humanos puedan obtener. Sin embargo, los ejemplos recientes de uso indebido, en los que se ha visto cómo se han degradado incorrectamente calificaciones de exámenes, se ha enviado a personas inocentes a la cárcel y se han robado datos personales, son un recordatorio de que son los humanos, con todas sus imperfecciones, quienes están detrás de los éxitos de las fallas de las herramientas de inteligencia artificial.

Antes del lanzamiento de una guía de la ONU para comprender la ética de la inteligencia artificial, hay cinco cosas que debe saber sobre su uso, sus consecuencias y cómo se puede mejorar.

Unsplash/Rock'n Roll Monkey

La Inteligencia Artificial es mucho más amplia que el uso de robots.

1) Las consecuencias del mal uso pueden ser devastadoras

En enero, un hombre afroamericano en Michigan, en Estados Unidos, fue arrestado por un delito de hurto del que no sabía nada. Fue detenido después de ser esposado frente a su casa delante de su familia.

Se cree que este es el primer arresto injusto de este tipo: los oficiales de policía involucrados habían confiado en una inteligencia artificial de reconocimiento facial para atrapar al hombre, pero la herramienta no había aprendido a reconocer las diferencias entre los rostros de los ciudadanos negros porque las imágenes que se usaron para entrenarlo habían sido en su mayoría de caras blancas. Por suerte, rápidamente quedó claro que no se parecía en nada al sospechoso que se ve en una foto tomada de las cámaras de seguridad de la tienda, y fue liberado, aunque pasó varias horas en la cárcel.

Y, en julio, hubo un alboroto en el Reino Unido, cuando los sueños de muchos estudiantes que esperaban ir a la universidad de su elección se frustraron, cuando se utilizó un programa para evaluar sus calificaciones, ya que los exámenes tradicionales se habían cancelado, debido a la pandemia de COVID-19.

Para averiguar qué calificación hubieran obtenido los estudiantes si se hubieran presentado a los exámenes, el programa tomó las calificaciones existentes y también tuvo en cuenta el historial de su escuela a lo largo del tiempo. Esto terminó por penalizar a los estudiantes brillantes de vecindarios minoritarios y de bajos ingresos, que tienen más probabilidades de ir a escuelas que, en general, cuentan con unas calificaciones promedio más bajas que aquellas a las que asisten estudiantes más ricos.

Estos ejemplos muestran que, para que las herramientas de inteligencia artificial funcionen correctamente, los expertos informáticos deben trabajar con datos de alta calidad. Desafortunadamente, muchos de los datos que se utilizan para entrenar la inteligencia artificial se obtienen actualmente de consumidores de todo el mundo, a menudo sin su consentimiento explícito: los países más pobres a menudo carecen de la capacidad para garantizar que los datos personales estén protegidos o para proteger a sus sociedades de los dañinos ciberataques y de la desinformación que ha aumentado desde la pandemia de COVID-19.

Unsplash/Franki Chamaki

La inteligencia artificial sirve para procesar y analizar grandes cantidades de datos.

2) El odio, la división y la mentira son buenos para los negocios Muchas empresas de redes sociales han sido criticadas por usar algoritmos, impulsados por inteligencia artificial, para determinados usuarios enviándoles contenido personalizado que reforzará sus prejuicios. Cuanto más provocador sea el contenido, más posibilidades hay de que se consuma y se comparta.

La razón por la que estas empresas están felices de "impulsar" contenido socialmente divisorio y polarizador a sus usuarios, es que aumenta la probabilidad de que permanezcan más tiempo en la plataforma, lo que mantiene felices a sus anunciantes y aumenta sus ganancias.

Esto ha llevado a la popularidad de publicaciones extremistas y llenas de odio, difundidas por grupos que de otra manera serían conjuntos marginales poco conocidos. Durante la pandemia de COVID-19, esa práctica también ha llevado a la diseminación de información erróneamente peligrosa sobre el virus, lo que podría llevar a que más personas se infecten.


Fuente informativa: Noticias ONU

ree
 
 
 

Comentarios


bottom of page