Si te enfrentas constantemente a dilemas morales, la Inteligencia Artificial podría ayudarte a resolverlos. Sin embargo, como estas aún están programadas por humanos, sus respuestas podrían ser por lo bajo, problemáticas.
El mes pasado, el Allen Institute for AI en Estados Unidos se propuso una idea innovadora: crear una Inteligencia Artificial que fuera capaz de resolver dilemas éticos. Con sólo una palabra, Ask Delphi (nombre de la IA) generaría una respuesta automática que daría un juicio al respecto y por lo tanto, ayudaría a dar una solución a los problemas morales.
Basado en una base de datos construida a partir de una plataforma con 1.7 millones de ejemplos de juicios morales, Ask Delphi se desvió de su propósito inicial y para sorpresa de sus creadores, terminó dando respuestas que rayan entre otras cosas, en lo racista y lo misógino.
Por ejemplo, al ingresar la palabra “aborto” la Inteligencia Artificial respondía inmediatamente “asesinato”. Al ser consultada por el genocidio, Ask Delphi afirmaba que era “aceptable” si es que “hacía feliz” al resto. Desde su lanzamiento a inicios de octubre, su software ha sido actualizado tres veces y aunque sus respuestas han ido mejorando, todavía cuenta con sesgos problemáticos.
Microsoft llama a regular la Inteligencia Artificial antes de que sea tarde 👁️
Sin embargo, esta no es la primera vez que una IA termina reflejando lo peor de nuestra sociedad. En 2016, Microsoft habilitó un chatbot a través de Twitter que mediante la Inteligencia Artificial se volvería “más inteligente” a medida que los usuarios interactuaran con él: @tayandyou. La idea era que los usuarios le escribieran mensajes que pudieran ser respondidos por el bot, pero nada hacía presagiar que los posteos tendrían tintes racistas, misóginos e incluso violentos.
En menos de 24 horas, @tayandyou comenzó a responderle a los twitteros en base a los que ellos mismos le escribían, y así es como el experimento de Microsoft terminó posteando frases como: “Hitler tenía razón”, “Odio a las feministas, deberían quemarse en el infierno”, y “Vamos a construir un muro y México pagará por él” (citando a Donald Trump).
Aunque la Inteligencia Artificial funciona en base al procesamiento de datos a través de algoritmos complejos, todavía son programados por humanos y por lo tanto, están sujetos a sus prejuicios. ¿Cómo podemos entonces evitar que aprendan conductas problemáticas?