La inteligencia artificial generativa (IAGen) se ha convertido en una herramienta de uso cotidiano. A través de modelos de lenguaje cada vez más grandes y potentes, hoy accedemos a asistentes digitales que redactan textos, traducen documentos, responden dudas técnicas y hasta recomiendan decisiones estratégicas. Modelos estadounidenses como ChatGPT de OpenAI, Gemini de Google, Claude de Anthropic, LLaMA de Meta, Grok de XAI o IAGen de NVIDIA, forman parte de esta nueva generación de algoritmos que, aunque invisibles, moldean nuestras interacciones con el conocimiento. China también ha entrado en esta carrera con propuestas como DeepSeek o Qwen de Alibaba.
¿En la actualidad puede la IA decir “no sé”?
La respuesta corta es no. Y el motivo es más profundo de lo que aparenta.
Los modelos de lenguaje grandes —Large Language Models o LLMs— son sistemas probabilísticos que predicen la siguiente palabra dada una secuencia de texto. No tienen entendimiento genuino, ni conciencia, ni noción de lo que es verdad. Solo procesan patrones de texto que son representados mediante largas y complejas secuencias de números, llamadas vectores. Esto significa que siempre intentarán dar una respuesta, aunque no “sepan”. Cuando carecen de información de base para dar una respuesta o construir algo nuevo, fabrican respuestas que usualmente son imprecisas o incorrectas. A este fenómeno se lo conoce técnicamente como alucinación.
Paradójicamente, los únicos momentos en los que un LLM se rehúsa a responder es cuando se activan barreras de seguridad programadas por sus desarrolladores. Estas restricciones están pensadas para evitar daños como, por ejemplo, impedir que un usuario reciba instrucciones para fabricar un explosivo o acceder a datos sensibles. Pero fuera de estos casos extremos, un LLM responde siempre, incluso cuando debería quedarse en silencio o cuando debería decir no sé.
Riesgos de que la IA actual no pueda decir “no sé”
Este comportamiento plantea un riesgo que la mayor parte del tiempo pasa subestimado. Muchas personas asumen que la respuesta que brinda un LLM es certera, y actúan en consecuencia: confían ciegamente en diagnósticos médicos generados por algoritmos de IA, toman decisiones legales basadas en resúmenes automáticos o aprueban informes construidos por asistentes digitales. El problema no es usar los LLMs; el problema es creer que su respuesta es infalible.
¿Cómo damos respuestas los humanos?
Los seres humanos tenemos una herramienta cognitiva invaluable: la capacidad de reconocer nuestros límites. Decir “no sé” no es un signo de ignorancia, sino de sabiduría. Es un acto de humildad intelectual que protege la verdad. Los modelos de texto actuales no tienen esta capacidad. No distinguen entre certeza e invención o alucinación. En definitiva, los LLMs no calibran su confianza.
¿Qué puede la ciudadanía frente a este escenario?
Primero, aprender a detectar los límites de la IA. Las respuestas bien redactadas no siempre garantizan veracidad.
Segundo, validar la información que producen estos modelos, especialmente si tiene consecuencias prácticas o legales.
Tercero, complementar el uso de la IA con criterio humano: un algoritmo puede sugerir, pero no debe decidir por nosotros.
Conclusión
La IAGen es una de las herramientas más importantes que la IA ha brindado en esta década. Pero como toda herramienta importante y útil, exige responsabilidad. Usarla no es un error. El error es creer que la IA lo sabe todo, o que responde siempre correctamente cuando en la realidad no es así. Por lo tanto, esté alerta cuando use LLMs.