La IA está cambiando el mundo; pero en estas fases tempranas, lo hace con el permanente riesgo de que no siempre sea para bien
La inteligencia artificial ha demostrado un potencial inmenso para transformar industrias, optimizar procesos y crear nuevas oportunidades. Sin embargo, también ha cometido errores graves:
Muchos modelos de IA (como redes neuronales profundas) son cajas negras. Esto significa que no resulta simple entender fácilmente por qué toman ciertas decisiones. Esto ocurre especialmente en algunos ámbitos como el de la medicina, las finanzas o la justicia.
Algunos bancos usan modelos de IA para evaluar solicitudes de crédito. Ha habido casos en los que personas con excelente historial crediticio fueron rechazadas, y ni el banco ni el cliente pudieron entender el motivo, porque el modelo no podía explicarse de forma clara.
Otro de los errores más comunes consiste en que, al recoger información, recaba cuestiones que incluyen prejuicios o comportamientos sociales superados en la visión contemporánea oficial de nuestra cultura, que no siempre se han erradicado y que definitivamente siguen latentes en nuestras sociedades.
Por eso, la discriminación racial o de género en sistemas de contratación laboral, reconocimiento facial, o decisiones judiciales es uno de los productos indeseables de la IA.
En ocasiones, por otra parte, el contexto determina que una imprevisión humana no logre eludir el peligro. De tal modo la IA no puede operar a sus anchas y eso genera consecuencias dolorosas. En efecto, en 2018, un auto de Uber atropelló mortalmente a una mujer en Arizona. La IA reconoció a la peatona como una “bicicleta” y no activó el freno. El sistema estaba desactivado en modo de emergencia y no reaccionó a tiempo. Esto mismo puede ocurrir con la salud, el transporte o la defensa.
En los últimos tiempos se ha hablado mucho de las “Deepfakes”, formas de la desinformación que produce esta nueva tecnología. Las IA generativas son perfectamente capaces de crear imágenes, audios y videos falsos increíblemente realistas. El peligro que revisten es que no se utilizan meramente para lo recreativo, sino que constituyen una herramienta para la manipulación de la opinión pública, generar noticias falsas, y hasta aventurarse a la suplantación de identidad. En los próximos años, todos los países tendrán que generar respuestas judiciales rigurosas para evitar este peligro que enfrenta el universo de la comunicación masiva.
Un ejemplo de esta mecánica es el video falso de Zelenski que se difundió en el 2022 donde el presidente de Ucrania, VolodímirZelenski, aparecía pidiendo a sus tropas la rendición definitiva. El material fue rápidamente desacreditado, no obstante, generó confusión y demostró el poder de estas tecnologías para manipular a gran escala. Diagnósticos médicos erróneos por mal entrenamiento de modelos es otra versión grave de fallo.
Dentro de los equívocos que comete la IA están los que se han denominado “Alucinaciones”, un grupo de realidades que afirma misteriosamente el raciocinio artificial. Puede dar citas o referencias falsas, inventar hechos históricos o datos científicos.
Hay un caso emblemático no por eso más lógico: un abogado estadounidense usó IA para ayudarle a redactar un documento judicial. El modelo generó referencias legales inventadas. El juez descubrió que las citaciones no existían y sancionó al abogado por presentar información falsa.
Si bien esta tecnología facilita mucho la adquisición de conocimiento y la intervención preventiva, algunos regímenes autoritarios la utilizan mediante una serie de imposiciones que riñen con la ética y los derechos humanos. Tal es el caso de China. Allí se ha usado para vigilancia masiva de minorías como los uigures. Se combinan cámaras con reconocimiento facial, geolocalización y análisis de comportamiento para controlar y restringir movimientos, sin proceso legal transparente.
El desplazamiento laboral también estaría contemplado en los posibles efectos de errores IA. El ejemplo clásico de este tipo de inconveniente es el que ocurrió en Japón: empresas japonesas de manga y animación empezaron a usar generadores de arte IA para tareas que antes hacían ilustradores humanos. Muchos artistas freelance perdieron encargos porque las IAs podían hacer trabajo “aceptable” mucho más rápido y barato.
Frente a este panorama complejo, se tornan esenciales la responsabilidad, el criterio y el enfoque humano.
En un evento que convocó grandes empresas de sistemas, tuvimos la oportunidad de consultar una voz autorizada, que se posicionó como una figura clave en la construcción de una IA ética y efectiva. ElCEO y fundador de N5, se expresó en estos términos:
—Es importante ofrecer una IA transparente y explicable, para que cada decisión pueda ser entendida y auditada. Porque la IA no reemplaza al hombre, sino que es a él como un brazo mecánico fue y es en la industria automotriz: un instrumento para acelerar, optimizar y abaratar los costos al hacer una misma tarea.
Para eso, entrenamos modelos con datos bien curados, reduciendo el riesgo de sesgos. En ocasiones, incluso eludimos búsquedas de datos más allá de la propia base de cada empresa que contrata nuestras soluciones. Esto conserva los datos fidedignos preservados y, por añadidura, garantiza mucho más la seguridad de nuestros clientes.
En fin, desarrollamos soluciones que cumplen con estándares éticos y regulatorios internacionales.
Porque Innovar no es suficiente. Hay que hacerlo bien…
En un mundo donde la IA puede ser tanto solución como problema, los líderes aseguran que la innovación también puede ser responsable, transparente y profundamente humana.
—La clave no está solo en usar inteligencia artificial, sino en usar inteligencia con responsabilidad.