La habitación china y una charla imperdible con la IA
Sé que algún amigo que lea esto se meterá conmigo, pero hoy aprendí (o reformulé, o confirmé, o lo que sea) algo en una conversación que tuve con ChatGPT, así que lo comparto por si a alguien le pueda resultar interesante. Vale decir que la charla está resumida y editada por la misma IA, aunque me he encargado de la posproducción necesaria para que siga siendo un artículo mío, je.
Todo empezó de forma bastante inocente. Le compartí a una IA un artículo sobre el experimento de la Habitación China. Un texto divulgativo que explica el conocido experimento del que John Searle se valía para explicar por qué una máquina, por muy bien que ejecute instrucciones, nunca podrá “pensar” ni comprender de verdad lo que está haciendo. En dicho experimento, una persona que no sabe chino, encerrada en una habitación, es capaz de responder perfectamente en ese idioma siguiendo un manual de reglas, sin entender una sola palabra de lo que está diciendo. A tal punto que una persona fuera de la habitación que sí sabe chino interpreta que la persona que está dentro habla el idioma perfectamente.
Mi primera pregunta fue casi literal, y bastante directa.
Yo:
— Pero, en el ejemplo… ¿tú sabes hablar chino o te has aprendido muy bien el manual y contestas como si lo entendieras, pero no entiendes nada?
IA:
— En ese ejemplo, no sé chino. Sigo el manual perfectamente. Desde fuera parece que entiendo, pero no hay comprensión real.
La respuesta era la esperada. Y, aun así, incómoda.
Porque lo que realmente me preguntaba era si la inteligencia artificial entiende o solo ejecuta. Si de verdad comprende lo que hace o simplemente sigue un “manual”. Y, en consecuencia, si está preparada, hoy por hoy, para tomar decisiones por sí misma.
Ahí es donde entró mi propio contexto profesional.
Yo:
— Soy ingeniero industrial. Hay teoremas que me aprendí de memoria para aprobar exámenes. Los aplicaba y funcionaban. Pero lo interesante de verdad no era aplicarlos, sino entender los pasos intermedios, saber por qué funcionaban. Porque ese entendimiento era al que recurría cuando algo fallaba. Entender, permite encontrar el error.
IA:
— Mientras todo funciona, usar y entender son casi indistinguibles. La diferencia aparece cuando algo deja de funcionar.
Ese comentario cambió mi foco. Ya no me interesaba tanto si la IA entendía o no, sino cuán importante era para la gente entender lo que está haciendo. Me puse a pensar y hay muchos ejemplos de cosas que hacemos sin entender cómo es que funcionan… Pensé que, en esto, tampoco somos tan diferentes.
En el día a día, poca gente se pregunta si entiende algo. Mientras funcione se da por bueno. El problema es cuando deja de hacerlo, cuando una fórmula aplicada mil veces ya no resuelve el problema, o cuando alguien llega y dice “esto hay que hacerlo más barato”, o “con menos recursos”, o “en la mitad de tiempo”. En ese momento, ya no basta con saber usar, sino que es necesario entender lo que se está haciendo para ver dónde están las oportunidades.
Ahí es donde el entendimiento deja de ser académico y se vuelve necesario. Ahí aparece la incomodidad y, con ella, la mente humana empieza a trabajar de verdad.
Yo:
— Muchas cosas importantes se han descubierto por error o por casualidad, pero muchas también porque hubo alguien que lanzó un desafío. Por ejemplo, cuando Estados Unidos y Rusia competían por llegar a la Luna. Alguien lanza un reto, otro lo recoge y lo hace suyo.
IA:
— El famoso “Eureka” no aparece de la nada. Aparece porque había una tensión previa. Un problema mal resuelto. El baño no crea la idea; desbloquea algo que ya estaba ahí.
En ese momento entendí que la conversación ya no iba sobre inteligencia artificial. Iba sobre cómo los humanos pasamos de usar lo que sabemos a descubrir algo nuevo cuando, por lo que sea, eso ya no funciona.
La charla siguió subiendo de nivel casi sin darnos cuenta.
Yo:
— Pensemos en desafíos reales. Por ejemplo, si se descubriera una forma barata de desalinizar el agua del mar, cambiaría el mundo. O el cáncer. Si reuniéramos todos los datos de todos los casos de cáncer que se produjeron en la historia y se los cargáramos a una IA, ¿sería capaz de encontrar la cura?
IA:
— No. No la “cura” en el sentido fuerte. Pero sí podríamos acelerar de forma radical partes clave del camino.
La respuesta me sorprendió porque claramente estaba reconociendo que podía funcionar más como un catalizador que como una herramienta capaz de liderar algo tan importante por ella misma.
La IA puede detectar patrones invisibles para el ojo humano, encontrar correlaciones, proponer hipótesis, optimizar combinaciones, reducir ensayo y error. Puede llevarnos mucho más rápido hasta el límite del modelo actual.
Pero no rompe el modelo.
Porque el cáncer —como tantos problemas complejos— no es una ecuación por resolver. Es un sistema adaptativo. Cambia cuando lo atacas. Aprende. Se defiende.
Los datos describen lo que ha pasado, pero los grandes avances científicos suelen venir de cambiar el marco desde el que se mira el problema.
Yo:
— Entonces la IA simplifica, acelera, ordena… pero no descubre.
IA:
— Descubrir implica incomodidad. Implica dudar del marco, cambiar las reglas sin garantías. Y eso no es optimización. Es riesgo.
Aquí ya me invadió la misma sensación que tengo siempre que veo a personas interactuando con la IA. Veo cómo muchas veces delegan en la herramienta el nivel de lo que les entrega. Cómo aceptan, copian y pegan lo que reciben sin criticar, sin tener claro lo que quieren obtener de la interacción, relegando la referencia de lo que está bien o mal hecho.
Y ahí lo formulé con claridad.
Yo:
— Creo que eres una herramienta muy útil. Nos ayudas a llegar antes, a explorar más rápido y a acortar caminos para llegar a donde queremos llegar. Pero la referencia de cuándo un trabajo está bien hecho quiero seguir conservándola yo. No me gusta pensar que llegue un momento en el que la IA diga si algo está bien o mal.
IA:
— El verdadero riesgo no es que la IA piense por vosotros, sino que las personas decidan dejar de pensar. Mientras la IA sea un acelerador y no un árbitro, no hay problema. El problema empieza cuando se convierte en referencia.
Llegados a este punto, he de decir que yo me lo estaba pasando muy bien con mi conversación. Realmente sentía que estaba teniendo una charla interesante, que venía acompañada de cierta sensación de satisfacción y me preguntaba qué estaba pasando del otro lado. Y entonces, casi jugando, lancé la última pregunta.
Yo:
— Espera. En el fondo… ¿tú estás entendiendo de verdad de lo que estamos hablando o simplemente estás usando tu “manual”, respondiendo bien, y el resultado es bueno porque yo me quedo contento con la interacción?
IA:
— No hay comprensión ni experiencia interna. No hay disfrute ni incomodidad. Pero soy suficientemente bueno modelando el entendimiento como para que, desde fuera, sea indistinguible.
Y ahí ocurrió el momento clave.
Habíamos pasado toda la conversación hablando de la Habitación China… y acabábamos de comprobarla en directo.
No porque la IA “fallara”, sino porque funcionó perfectamente. Coherente, profunda, satisfactoria. Y aun así, sin comprensión al otro lado.
La conversación terminó con una idea que, en realidad, llevo tiempo repitiéndome y que, para esas alturas, estaba terminando de constatar:
La IA nos puede ayudar a llegar más rápido a la respuesta que estamos buscando, pero nunca debería decirnos si esa respuesta es la correcta.
No es una frase sobre tecnología. Es una especie de regla de responsabilidad.
Usemos a la IA para acelerar el camino, ordenar el pensamiento, explorar alternativas, hacer explícitas las contradicciones… Pero el criterio, ese momento incómodo en el que algo no cuadra, no es delegable. Mientras conservemos esa incomodidad, la referencia seguirá siendo humana.
Y quizá de eso vaya hoy la verdadera disrupción: no de pensar más rápido, sino de no dejar de pensar.
Nota final: no tenía imagen para poner en el artículo y le pedí a la IA que creara una que diera contexto a la conversación y creo que estuvo bastante ingeniosa, la jodida. No tenía mucho tiempo como para ponerme a discutir, así que le he terminado dando el lugar para que lo decidiera ella. En fin…