Aumenta Congreso de Veracruz penas por abuso sexual  —  ¿Cristiano Ronaldo escapó de Arabia Saudita? Esto es lo que se sabe  —  Así es vivir en Israel con lluvia de misiles y drones lanzados por Irán y Hezbollá; han muerto 12 personas  —  Sheinbaum pide a FGR explicar por qué permitió ingreso a medios a cabaña donde estaba 'El Mencho'  —  Partido Verde no votará a favor de reforma electoral por este motivo  —  Rocío Nahle propone 'Escuela para padres' tras agresión de joven a estudiante en Veracruz  —  Sheinbaum aplaza envío de la reforma electoral por ajustes finales  —  Ya es demasiado tarde para negociar con Irán: Trump  —  ¿Cómo identificar billetes falsos y qué hacer si recibes uno?  —  ‘Resident Evil Requiem’: Las dos caras del terror  —  Regresa a México la Orquesta de la Luz ¡Salsa caliente de Japón!  —  Yuridia: Primera artista confirmada para Cumbre Tajín 2026  —  México gana, gusta y golea a Islandia rumbo a la Copa del Mundo 2026  —  Cuba en problemas para el Clásico Mundial, le niegan visa a sus integrantes  —  Esto dijo Javier Aguirre tras la goleada de la Selección Mexicana ante Islandia  —  Cristiano Ronaldo se convierte en dueño de un equipo de España  —  Líder de Corea del Norte plantea mejorar relación con EU, solo bajo estas condiciones  —  Trump se lanza contra Robert De Niro por declaraciones del actor  —  El Vaticano anunció los próximos viajes del papa León XIV, ¿vendrá a México?  —  Casa Blanca monitorea el ataque de Cuba a una lancha de EU donde hubo 4 muertos

Científicos comprueban que la IA aún no ha alcanzado el razonamiento humano complejo

06 febrero, 2026 | Tecnociencia

Un equipo internacional de científicos comprobó que la inteligencia artificial (IA) sigue cometiendo errores a la hora de responder preguntas que requieren razonamiento conceptual y no meras búsquedas en internet, lo que revela que aún no iguala el pensamiento humano en tareas académicas complejas.

Según detalló este jueves en un comunicado la Universidad de Granada (UGR), de España, la investigación nació con el objetivo de determinar si los actuales grandes modelos de lenguaje (LLM) poseen una amplia y verdadera capacidad de resolución creativa o si, por el contrario, su funcionamiento se limita a una sofisticada gestión de los datos que esos modelos rescatan de la nube.

Para ello, la comunidad científica diseñó una batería de preguntas de alta complejidad técnica y conceptual como parte de su investigación, llamada ‘Humanity’s Last Exam’ (‘Último Examen de la Humanidad’, en español), publicada en la revista Nature.

Así, un equipo formado por 1.100 científicos de todos los ámbitos de la ciencia y las humanidades -entre los que se encuentra la española María Cruz Boscá, de la UGR- sometió a la IA a un «gran examen» para valorar su réplica a preguntas de respuesta inequívoca y verificable pero que requieren más que una búsqueda en internet.

Cada pregunta tiene una solución conocida que es inequívoca y verificable, pero que no puede responderse rápida y fácilmente mediante una búsqueda en internet.

Como detalla el artículo ‘Una base de referencia de preguntas académicas de nivel experto para evaluar las capacidades de la IA’, el resultado es que, a día de hoy, incluso los modelos más avanzados de IA tropiezan con conceptos científicos profundos y heredan errores de los manuales clásicos, lo que pone de relieve una marcada diferencia entre las capacidades actuales de los LLM y las de los expertos humanos en las diferentes preguntas académicas planteadas, referentes a diversos campos científicos.

Según explicó la profesora Boscá, que puso a prueba los límites del razonamiento artificial en el ámbito de la física cuántica, su investigación comprobó que las inteligencias artificiales no lograron elegir las respuestas correctas cuando tenían que realizar una profunda comprensión conceptual.

En una de las cuestiones, relacionada con la paradoja Einstein-Podolsky-Rosen, la máquina falló debido a un sesgo interpretativo clásico, asumiendo una realidad objetiva en la medición que contradice los principios cuánticos.

En otro caso, relativo al experimento Stern-Gerlach, la IA reprodujo un error factual que se repite en numerosos manuales científicos, demostrando que estos sistemas pueden perpetuar equivocaciones bibliográficas si no se les entrena para discernir la respuesta correcta.

No obstante, la doctora Boscá subrayó que los sistemas actuales de LLM más avanzados trascendieron ya la mera búsqueda de información para comenzar a realizar análisis reflexivos complejos a partir de los datos disponibles.

«El verdadero hito llegará cuando la IA no solo evite errar en el conocimiento establecido, sino que además sea capaz de plantear nuevas preguntas y ofrecer respuestas a incógnitas científicas que hoy en día los humanos aún no hemos logrado resolver», concluyó.