Hace un tiempo, construí lo que llamé un “algoritmo empático”. Era un motor de decisiones para un sistema académico, diseñado para automatizar un proceso burocrático. En su momento, me sentí orgulloso de haber codificado no solo la lógica, sino también el cuidado y el contexto en un sistema de reglas. Lo que no anticipé fue que esa experiencia, la de crear un sistema de inteligencia artificial muy específico y limitado, cambiaría por completo mi perspectiva sobre el vasto y deslumbrante universo de la IA moderna.
Me di cuenta de que la característica más inteligente que programé en mi sistema fue su capacidad para reconocer su propia estupidez.
La IA como un Espejo de Nuestras Reglas
Mi algoritmo no era “inteligente” en el sentido mágico que hoy asociamos a la IA. No aprendía, no infería patrones ocultos de grandes volúmenes de datos. Era, en esencia, un espejo increíblemente rápido y eficiente de un conjunto de reglas que yo, un humano, había definido. Si una regla era justa, el algoritmo la ejecutaba con una justicia implacable. Si una regla era defectuosa, se convertía en un agente de esa falla a una escala y velocidad que ningún humano podría igualar.
Esta experiencia me ancló a una realidad fundamental: gran parte de la IA que impulsa decisiones en el mundo real no es una conciencia emergente, sino la automatización de nuestros propios procesos mentales, con todo y nuestros sesgos y puntos ciegos. Le enseñamos a la máquina a pensar como nosotros, y luego nos sorprendemos cuando hereda nuestros defectos.
El verdadero peligro no es que las máquinas comiencen a pensar como humanos, sino que los humanos dejemos de pensar porque las máquinas lo hacen por nosotros.
El Límite Infranqueable del Contexto
Hoy interactúo con modelos de lenguaje asombrosos. Pueden escribir código, componer poesía, resumir textos complejos y conversar con una fluidez que a menudo se siente indistinguible de la de una persona. Son maravillas de la ingeniería, capaces de procesar y conectar información a una escala sobrehumana.
Y sin embargo, mi algoritmo “tonto” tenía algo que estas redes neuronales gigantescas aún no poseen: la conciencia programada de sus propias limitaciones.
Una línea en mi código decía, en efecto: “Si el motivo de la solicitud es ‘problema de salud’, no intentes decidir. Escala el caso a un humano”. Esta no era una decisión basada en datos, sino una decisión ética. Era el reconocimiento de que ciertos dominios del juicio humano están fuera de los límites de lo que una máquina debería procesar.
La IA actual puede analizar millones de registros médicos para predecir la probabilidad de una enfermedad. Pero no puede comprender el miedo de un paciente al recibir un diagnóstico. Puede analizar datos financieros para aprobar o rechazar un préstamo. Pero no puede sentir la ansiedad de una familia que lucha por llegar a fin de mes.
Su “comprensión” es estadística, no existencial. Procesa las palabras, pero no el mundo que hay detrás de ellas. Puede simular empatía, pero no puede sentirla. Y es en esa brecha, entre la simulación y la realidad, donde reside uno de los mayores riesgos éticos de nuestro tiempo.
La Ética de la Deferencia
Mi experiencia con el Proyecto Fénix me enseñó que la característica más crucial de cualquier sistema de IA que impacte vidas humanas no es su precisión o su velocidad, sino su humildad. Su capacidad para detenerse y deferir a un juicio humano.
Estamos en una carrera por automatizarlo todo, desde la contratación de personal hasta las sentencias judiciales, seducidos por la promesa de eficiencia y objetividad. Pero nos preguntamos muy poco sobre lo que se pierde en el proceso. ¿Qué valor tiene una decisión “eficiente” si es insensible? ¿Qué valor tiene una conclusión “objetiva” si ignora el contexto humano que no cabe en una base de datos?
La verdadera inteligencia, tanto en humanos como en máquinas, podría no ser la capacidad de llegar a una respuesta correcta, sino la sabiduría para reconocer un problema que no se tiene derecho a resolver.
Sigo fascinado por la inteligencia artificial. Es, sin duda, una de las herramientas más poderosas que hemos creado, con el potencial de resolver problemas que antes considerábamos insuperables. Pero ya no la veo como una panacea. La veo como una herramienta que debemos manejar con un cuidado extremo y una humildad profunda.
Debemos construir nuestras máquinas inteligentes no solo para que sean poderosas, sino para que sean prudentes. No solo para que sean rápidas, sino para que sean reflexivas. Y, sobre todo, para que entiendan que en el complejo tapiz de la experiencia humana, el acto más inteligente, a veces, es dar un paso atrás y permitir que un humano tome la decisión.