
Artículo originalmente escrito el 6 de Noviembre de 2018, actualizado el 8 de Enero de 2025
Los algoritmos de caja negra son aquellos algoritmos que no muestran el funcionamiento interno del mismo al usuario. Un ejemplo de este tipo de algoritmos sería el algoritmo de Google, que nos devuelve unos resultados de búsqueda cuando introducimos una consulta, sin especificar los puntos que ha tenido en cuenta a la hora de ordenar dichos resultados. Otro ejemplo sería el algoritmo de Netflix, que nos sugiere uno u otro contenido en base a nuestras preferencias. Un último ejemplo seria el muro de Facebook o el de Instagram, que nos ofrece contenidos en base a nuestro comportamiento en la red social, nuestros gustos y los de nuestros amigos, entre muchos otros factores.
Este tipo de algoritmos suelen ser bastante dinámicos, es decir, suelen cambiar constantemente, con el objetivo de ofrecer siempre resultados que aporten valor a sus usuarios y se adecuen a los nuevos escenarios y realidades.
Los algoritmos de caja negra tienen un inconveniente: la falta de transparencia, fruto de su propia naturaleza. Este tipo de algoritmos puede priorizar uno u otros resultados en base a objetivos empresariales o políticos, llegando incluso a provocar situaciones injustas para aquellas empresas, personas o asociaciones que ven su exposición o visibilidad afectadas.
Este tipo de sesgos pueden ser intencionados o inintencionados. Puede darse el caso que fruto de errores en estos algoritmos, el resultado obtenido no sea el adecuado, provocando verdaderas catástrofes como la caída del Dow Jones en mayo de 2010 (-9% en pocos minutos), también conocida como Flash Crash de 2010.
Otra de las incógnitas es el uso que se le de a la información obtenida por estos algoritmos, como fue el caso del escándalo de Cambridge Analytica. Este tipo de errores son fruto del aprendizaje automático, que acaba generando un sesgo en el algoritmo. Este tipo de errores genera desigualdades e injusticias que deben ser reguladas, y en esta línea se están desarrollando diferentes movimientos sociales enfocados a desarrollar un mayor y mejor sistema de protección para los usuarios.
El caso de la Inteligencia Artificial
La caja negra de la Inteligencia Artificial (IA) se refiere a la opacidad de los sistemas de IA avanzados, particularmente de las redes neuronales profundas, que generan resultados o decisiones sin que sus procesos internos sean completamente comprensibles para los humanos. A pesar de su capacidad para realizar tareas complejas, como reconocimiento de voz o predicción de tendencias, la falta de transparencia en cómo llegan a esas conclusiones plantea retos importantes.
Aunque podemos observar las entradas (datos que recibe la IA) y las salidas (decisiones o resultados), el proceso interno que conecta ambos extremos es difícil, si no imposible, de interpretar en su totalidad. Las redes neuronales, que son la base de muchas IA modernas, operan a través de millones de parámetros ajustados durante el entrenamiento, pero el significado o la lógica detrás de esos ajustes suelen ser ininteligibles.
Organizaciones como OpenAI están liderando esfuerzos para entender mejor estos sistemas. OpenAI ha utilizado herramientas como «codificadores dispersos» para identificar patrones y características dentro de sus modelos, con el objetivo de hacerlos más transparentes y seguros. Además, investigaciones recientes han encontrado estructuras y conexiones repetitivas dentro de las redes neuronales que podrían ser la clave para comprender su lógica interna.
Sin embargo, el desafío sigue siendo enorme. La naturaleza altamente compleja y no lineal de las redes neuronales dificulta su interpretación. Aunque se están logrando avances, aún estamos lejos de desentrañar completamente estas «cajas negras».
Esta opacidad puede generar problemas de confianza en un futuro si no se trabajan correctamente.
Si tomamos como referencia la experiencia de Google a lo largo de todos estos años, observamos como a pesar de ofrecernos resultados a nuestras consultas mediante algoritmos de caja negra, como el resultado obtenido acostumbra a ser bueno o muy bueno no hace que el usuario se plantee la necesidad de saber como el buscador muestra ese resultado y no otro. Debemos destacar que también existen excepciones, como los temas médicos (temas YMYL), en que el buscador ha debido desarrollar soluciones a medida para ofrecer resultados de mayor calidad y no perder la confianza de los usuarios. Y a pesar de ello, sigue siendo un tema en que el usuario no acaba de confiar del todo y se respalda en foros o directorios especializados.
En un futuro muy cercano veremos como trabajan las diferentes IA’s y los principales buscadores este tema: la confianza y la transparencia para que el usuario sepa por qué ha mostrado ese resultado y no otro, o si por contra, no va a ser necesaria dicha explicación, ya que la duda o consulta va a quedar resuelta.