Etiquetas

Estadística (17) 2Bachillerato (14) bachillerato (14) 4eso (13) probabilidad (10) 1bachillerato (9) CoVid19 (8) 2eso (7) economía (7) elecciones (6) 3eso (5) democracia (5) desigualdad (5) desviación típica (5) física (5) Porcentajes (4) ciencia (4) ley d'Hont (4) media (4) encuesta (3) error (3) física teórica (3) geometría (3) gráficas (3) relatividad (3) sucesión (3) Darwin (2) Examen (2) Madrid (2) astronomía (2) clase social (2) educación (2) exponencial (2) exposición (2) fisica cuantica (2) funciones (2) gráfica (2) historia (2) lotería (2) matemáticas CCSS (2) politica (2) proporcionalidad (2) sesgo (2) Alejandría. biblioteca (1) Bayes (1) Constitución (1) CosmoCaixa (1) Crack 29 (1) Gagarin (1) Gini (1) Hipatia (1) Hoover (1) Noether (1) Número irracional (1) PAU (1) Porcentajes encadenados (1) Queen (1) Renta per capita (1) Tales de Mileto (1) actividad (1) agujero negro (1) algoritmos (1) calendario (1) cambio climático (1) diagrama de barras (1) diagrama de sectores (1) día del libro (1) ecología (1) ecuaciones (1) elipse (1) evolución (1) extremo relativo (1) fracción (1) frecuencia (1) globalización (1) gravitación (1) gregoriano (1) hipercubo (1) impuesto (1) inecuaciones (1) inicio (1) interpolación (1) juliano (1) matemáticas financieras (1) media aritmética (1) media geométrica (1) mediana (1) meteorología (1) museo (1) máximo (1) mínimo (1) música (1) número normal (1) número trascendente (1) ondas (1) ondas gravitatorias (1) paradoja (1) pobreza (1) polinomios (1) política fiscal (1) porcentaje (1) profecía autocumplida (1) punto de inflexión (1) rango (1) riqueza (1) salario (1) simetría (1) solución (1) tabla (1) taller (1) talleres (1) valor medio (1) álgebra (1)

lunes, 4 de enero de 2021

Algoritmos IAs sesgadas y/o educadas

Ya hay varios ejemplos de algoritmos de inteligencia artificial (IA) con muy diversos objetivos y aunque entre la mitología de las IA existe la creencia de que las IA son como ángeles sin prejuicios ni vicios terrenales, ya sabemos que no es cierto. Y los algoritmos inteligentes también tienen prejuicios. Por un lado cualquier aplicación adolecerá de los prejuicios de que les doten quienes elijan los requisitos técnicos y de quienes los programen. Algunos serán conscientes y otros, los peores, inconscientes. Y si esto fuera poco, los algoritmos de IA se entrenan con datos extraídos de las redes por lo que hay que tener en cuenta el sesgo de los datos, textos e imágenes provenientes de redes sociales y comunidades de internet.

No es teoría, ya tenemos varios ejemplos y estudios:

Otro caso muy interesante fue el de la IA de Microsoft Tay programada para mantener conversaciones en las redes sociales (otra chatbot intentando superar el test de Turing). Fue alimentado, en su primer día de funcionamiento público, por un grupo de desaprensivos eligiendo los datos para hacerla una nazi de pro con tanto éxito que Microsoft tuvo que cerrarlo en 16 horas.

Lo apropiado podría parecer no poner límites, pero la sociedad en su conjunto presenta sesgos que influirán en los algoritmos de forma sutil e inadvertida.
Aparte de que internet aún sigue estando compuestas por subgrupos sociales, unos más activos que otros y con distinto alcance.

La sociedad (y más internet) es machista, racista y clasista, quizás de una forma moderada y pasiva que muchos no notan o no notamos. He aquí el peligro. Así que no es tan buena idea usar datos masivos (big data) sin filtro porque no todos los grupos sociales están igualmente representados y activos en la Red.

¿Y si filtramos los datos eliminaríamos el sesgo? Quizás sí, pero no es seguro. Habrá quien desconfíe de quien selecciona qué datos y de los criterios, o incluso verá objetivos perversos al no dejar “libre” al algoritmo. Pero en cualquier caso si esta selección es pública, conocida y sujeta a debate; si hay algún sesgo será consciente y controlable. Lo malo del sesgo no es que exista, sino que exista y no lo sepamos.

Sería bonito que los algoritmos pudiesen tener un pensamiento racional crítico, pero primero habría que conseguir esto para la mayoría de la humanidad.

Otras fuentes de información:

“Hay que educar a los algoritmos” (UNESCO)

Sesgo algorítmico (Wikipedia)

¿Qué fue de Tay, la robot de Microsoft que se volvió nazi y machista?

El sesgo, ¿es el nombre de un ogro?

No hay comentarios:

Publicar un comentario