En el debate sobre la inteligencia artificial, pocas distinciones han sido tan influyentes —y a la vez tan malinterpretadas— como la que propuso John Searle entre IA débil e IA fuerte. Esta clasificación no pretende separar tecnologías actuales en “buenas” o “malas”, sino aclarar qué entendemos cuando decimos que una máquina “piensa” o “es inteligente”.
La IA débil es la que vivimos hoy. Es la que reconoce imágenes, clasifica correos, recomienda películas, traduce textos, detecta patrones médicos o escribe borradores. Es una inteligencia especializada, diseñada para funcionar dentro de un ámbito muy concreto. Puede superarnos en velocidad, precisión o capacidad de procesar datos, pero no tiene conciencia, ni intención, ni comprensión del mundo.
Si un algoritmo diagnostica cáncer con más acierto que un médico, no lo hace porque “sepa” qué es el cáncer: lo hace porque identifica patrones matemáticos que nosotros no vemos.
La IA fuerte, en cambio, es más una hipótesis filosófica que una realidad tecnológica. Implicaría crear máquinas con inteligencia general —capaces de aprender cualquier cosa, razonar sobre cualquier área, transferir conocimientos entre contextos distintos y actuar con verdadero entendimiento—. En otras palabras: no sería solo una herramienta sofisticada, sino un agente con algo parecido a mente propia.
Pero hasta ahora no existen pruebas de que podamos replicar esa complejidad. El cerebro humano no solo procesa información: interpreta, siente, contextualiza, crea valores, desarrolla intuiciones. Traducir esa riqueza en código sigue siendo, como mínimo, una tarea titánica.
Comprender esta diferencia es crucial cuando analizamos la ética de los sistemas actuales. Muchos dispositivos se describen como “autónomos” o “inteligentes”, pero incluso los más avanzados operan dentro de la IA débil. Los coches que circulan sin conductor, por ejemplo, calculan probabilidades, optimizan rutas y reaccionan más rápido que nosotros, pero no “entienden” la carretera. No actúan porque quieran proteger a alguien ni porque evalúen moralmente una situación: siguen parámetros programados.
Y esto tiene implicaciones éticas importantes.
Si la IA fuerte no existe, entonces ningún sistema actual puede asumir responsabilidad por sus decisiones. Toda decisión “automática” depende de seres humanos: programadores, empresas, responsables de datos, legisladores.
Cuando un sistema falla, no es porque “pensó mal”: es porque se diseñó, entrenó o supervisó de forma insuficiente.
A veces, la fascinación por la IA genera expectativas desmedidas que nublan este hecho. Se habla de robots que reemplazarán a las personas, máquinas que sentirán empatía o sistemas que gobernarán el mundo. Pero, mientras sigamos en el terreno de la IA débil, las máquinas son potentes herramientas, no agentes morales.
La ética entra en juego precisamente para evitar que atribuyamos a las máquinas una autonomía que no tienen. Si creemos que la IA “decide”, podemos caer en la tentación de eximir a los humanos de la responsabilidad. Y eso sería un error grave.
Ejemplo para reflexionar
Un programa puede vencer al campeón mundial de ajedrez, pero si le preguntas qué siente al ganar, no tiene respuesta.
No entiende la victoria.
No entiende el juego.
No entiende siquiera el concepto de “sentir”.
Su inteligencia está limitada al campo donde fue diseñada.
Actividad breve
Piensa en una IA que uses habitualmente (Google Maps, ChatGPT, Siri, un detector de fraude, etc.).
Responde:
- ¿Qué la convierte claramente en un ejemplo de IA débil?
- ¿Qué capacidades humanas sería incapaz de replicar, aunque lo intentara?
- ¿Qué consecuencias éticas tendría confundirla con una forma de IA fuerte?