class: center, middle, inverse, title-slide .title[ # Componentes epistémicos y pragmáticos de la interacción humano-LLM ] .author[ ### Miguel Moreno ] --- ## Problema > Entender el alcance de las distorsiones epistémicas y las falacias de atribución en la interacción con grandes modelos de lenguaje (LLM). > Precisar sus implicaciones en el uso común de servicios populares (GenAI, Agentic AI) > Identificar aspectos/efectos análogos en el manejo de modelos en contexto científico -- ### Contenido - Tendencias inducidas por los asistentes de primera generación - Componentes epistémicos y pragmáticos en análisis y traducción - Sesgos de atribución y expectativas distorsionadas - Modelos de interacción, intencionalidad y heurística antropomórfica - Implicaciones para el diseño de interfaces hum-LLM con memoria ampliada - Casos: BrainGPT, BioGPT, Geneformer, AlphaFold, AlphaGenome, SciAgents, Manus --- ## Introducción **Marco de interacción humano-máquina sin precedentes**: > Popularización de herramientas utilizadas solo en entornos de investigación > > Sofisticación y fluidez con la que ciertos sistemas procesan y generan lenguaje natural > > Mejora de rendimiento, equiparable al promedio humano (nivel experto, uso especializado) > > Categoría intermedia, entre mero instrumento e interlocutores aptos para tareas complejas --- ## Disociación fundamental .pull-left[ A. <mark>Capacidad de los LLM para generar texto coherente</mark> y contextualmente pertinente, con filtros y componentes para refinar el resultado. → Refuerza una **heurística evolutiva compleja** sobre conocimiento tácito, competencia prágmática y comprensión cultural con implicaciones éticas, sociales y cognitivas relevantes. ] -- .pull-right[ B. <mark>Carencia de estados mentales, conciencia o comprensión genuina</mark> asociada a un sistema culturalmente contextualizado de creencias justificadas. → Subyace a la **falacia de atribución de agencia** (tendencia a proyectar intencionalidad, creencias y competencia moral en sistemas que operan mediante la optimización de distribuciones estadísticas). ] -- <hr> > → La falacia de atribución induce distorsión epistémica. > > → La ilusión de transparencia interpretativa opera sobreestimando la fiabilidad de las respuestas y subestimando el riesgo de “alucinaciones” o distorsiones fácticas. --- ## Alcance de las malinterpretaciones > *Trayectoria de creciente delegación funcional*, desde los primeros autómatas mecánicos hasta los ecosistemas digitales conectados. > Dado el carácter polivalente de las tecnologías asociadas, suponen un riesgo crítico. -- <hr> → *En el ámbito ético*, la atribución indebida de agencia y competencia moral diluye la responsabilidad humana y puede inducir una confianza injustificada en sistemas utilizados como soporte para la toma de decisiones en medicina, en el sistema de justicia o en instancias relevantes de gobernanza. -- → *En la comunidad epistémica*, riesgo de contribuir a degradar la calidad del conocimiento, desplazando el papel de instancias convencionales de validación y pensamiento crítico por otros sistemas de “caja negra” con capacidades y disposiciones indebidamente sobreestimadas. -- → Crucial: <code style="background-color: #e0f7fa; border: 1px dashed #00796b; padding: 2px 4px; border-radius: 4px;">validar el desempeño del factor humano</code> en tareas exigentes mediadas por la interacción con LLM complejos, y las distorsiones epistémicas o pragmáticas más frecuentes. --- ## Asistentes de primera generación > Plataformas que facilitaron la adopción masiva de asistentes personales inteligentes en dispositivos móviles y hogares, configurando <mark>nuevos patrones de interacción</mark> humana con diversas tecnologías y dispositivos: Siri, de Apple | Google Assistant | Alexa, de Amazon → Han contribuido a reforzar ciertos componentes de la perspectiva antropomórfica (Placani, 2024; Pavlik, 2023). > Expectativa de reciprocidad comunicativa (turn-taking, claridad y pertinencia contextual de los mensajes) resultado heredado de la interacción con <mark>sistemas basados en reglas</mark>. -- → Modelo de diálogo simétrico consolidado antes de ChatGPT, con ELIZA (Weizenbaum, 1966; Winograd, 1972). > <mark>La experiencia conversacional estructurada y simétrica</mark>, donde la reciprocidad comunicativa era una consecuencia directa del diseño del asistente, <mark>se amplía y flexibiliza con el soporte de computación en la nube, aprendizaje automático y comunicación multimodal</mark> de los nuevos LLM (pueden procesar sonido, imágenes y vídeo como inputs en la interacción). --- ## Sobreatribución de agencia Los LLM de mayor tamaño capturan mejor la estructura o jerarquía organizada del lenguaje natural. > Pero las estadísticas de coocurrencia pura no han logrado resolver el problema de la sobreatribución de forma fiable (G. Marcus, 2020). **Meena**, “un agente conversacional que puede mantener conversaciones más sensatas y específicas que los chatbots de última generación", según Google, supuso un salto cualitativo en términos de "sensibilidad y especificidad". > Sin un modelo cognitivo interno del mundo, <mark>podía dar respuestas absurdas o contradictorias sobre aspectos básicos</mark> del tema de conversación (Manzini et al., 2024). -- <hr> La gran escala de los últimos LLM puede confundir acerca de su capacidad inherente para comprender el contenido que generan. Resultado: <mark>sobreatribución de competencia multidisciplinar y expectativa de éxito sobredimensionada</mark> en *benchmarks* específicos. Un mayor porcentaje de respuestas coherentes no les dota de capacidad genuina para interpretar contextos complejos y matices semánticos (Milosevic, 2019). --- ## Coherencia narrativa y consistencia moral El refinamiento de los LLM más potentes normalizará la interacción con **bots capaces de hacerse pasar por humanos** por teléfono, en redes sociales o plataformas de vídeo, y en contextos diversos (actividad comercial, trámites con las administraciones públicas, entretenimiento, seguridad, etc.). → Relevancia de los *componentes epistémicos*: conocimiento fáctico, tácito y procedimental; habilidades heurísticas y meta-cognitivas; pertinencia histórico-cultural. -- → Relevancia de los *componentes pragmáticos*: detectar la intención, objetivo o propósito de la interacción; identificar el contexto y circunstancias pertinentes; adaptación a las expectativas, tono y registro del usuario; respetar pausas o turnos; solicitar feedback, reformular la tarea o clarificar instrucciones ambiguas. -- → La *consistencia moral* (respeto de normas sociales y éticas implícitas) es un factor determinante de la confianza en el marco de gobernanza tecnológica. > El <mark>*déficit de competencia moral percibido*</mark> en la interacción con LLM <mark>puede comprometer la expectativa de uso razonable</mark> en ámbitos como la salud, la administración de justicia o la seguridad (Goetz et al., 2023; Agbabiaka et al., 2025; Reinhardt, 2022). --- ## Modelo 1: Humanismo extendido La conciencia surge de la integración de componentes como la percepción, la conceptualización, la agencia intencional y el automodelado dentro de los sistemas biológicos (Torres-Martínez, 2025). Según el *humanismo extendido*, la consciencia y la agencia humanas están vinculadas a la encarnación biológica y a las interacciones experienciales de los agentes con su entorno. > Se opone a las teorías que reducen la conciencia a la computación o la integración de información. > La mera capacidad de <mark>integrar información no cuenta como evidencia de conciencia fenoménica</mark>. -- → Enfatizar la obsolescencia humana es un modo precipitado e infundado de conceptualización, que <mark>ignora las conexiones intrínsecas entre conciencia, agencia y sustrato corporal biológico</mark>. → Un concepto de conciencia digital centrado exclusivamente en el procesamiento de la información o la existencia incorpórea —presente en algunas visiones transhumanistas de la mente y la conciencia— puede constituir una **<mark>fuente potencial de daño</mark>**. → Distorsiona la comprensión del papel de la conciencia y la agencia humanas (graduales) en la construcción de sociedades más inclusivas. ??? → todo lo que podemos saber sobre los estados conscientes de las máquinas se define por lo que sabemos sobre nuestra propia consciencia como una experiencia fenoménica en primera persona. → Tononi, 2004: **La teoría de la integración de la información tiene ciertas ventajas** que permiten explicar una serie de observaciones neurobiológicas relativas a la consciencia. En particular, por qué la consciencia se asocia con ciertos sistemas neuronales en lugar de con otros; el hecho de que los procesos neuronales subyacentes a la consciencia pueden influir o ser influidos por procesos neuronales que permanecen inconscientes; la reducción de la consciencia durante el sueño; y el tiempo que requieren las interacciones neuronales que sustentan la consciencia. En conjunto, <mark>dan soporte a una teoría de la conciencia como cantidad fundamental, que es graduada, que está presente en los bebés y en los animales, y que debería ser posible construir o materializar en artefactos conscientes</mark>. --- ## Modelo 2: La intencionalidad en perspectiva evolutiva Algunos circuitos cerebrales —la unión temporoparietal (TPJ), p. ej.— se activan al interactuar con entidades percibidas como conscientes. Explica la *disociación epistémica entre conocimiento racional* ("es un modelo estadístico") *e intuición social* ("parece un interlocutor"), por las <mark>dificultades para inhibir el “automatismo evolutivo”</mark> que induce la atribución de todas las características extraídas de la experiencia con entidades intencionales biológicas a sistemas no biológicos (pero tan complejos que exhiben parte del repertorio de capacidades típicas de las entidades conscientes). -- → <code style="background-color: #e0f7fa; border: 1px dashed #00796b; padding: 2px 4px; border-radius: 4px;">La distorsión epistémica se produce incluso cuando el usuario sabe que está interactuando con entidades artificiales</code> (J. Searle, 1983: *Intentionality: An essay in the philosophy of mind*). > Esta perspectiva resulta <mark>más interesante que las apelaciones comunes al riesgo de malas interpretaciones suscitados por la interacción con sistemas de *caja negra*</mark>. > > Los sujetos humanos no son menos responsables de sus juicios y acciones morales, por más que resulten opacos los procesos cognitivos y autorrestricciones que preceden a su juicio o decisión moral (Basti & Vitiello, 2023). ??? A este respecto resulta pertinente el análisis de John Searle sobre los actos de habla, entendidos como formas de acción humana representativas de la capacidad de la mente para relacionar el organismo humano con el mundo. Entre otras capacidades biológicas fundamentales, <mark>Searle considera la intencionalidad como el fenómeno mental crucial que permite conectar otros debates sobre la relación entre percepción, acción, causalidad, significado y referencia</mark>.[^17] [^17]: Searle, J. R. (1983). *Intentionality: An essay in the philosophy of mind*. Cambridge university press. En los seres humanos la demanda de *transparencia* y la atribución de “responsabilidad ética” por sus acciones como agentes morales no resulta menoscabada por la inevitable *opacidad* (o desconocimiento) del proceso cerebral mediante el cual realizan sus juicios morales y deciden cuál es la acción correcta que procede ejecutar. En parte al menos, es muy probable que la responsabilidad moral de nuestras acciones dependa de lo que ocurre inmediatamente antes y después de nuestros *juicios morales* sobre qué acción correcta debemos priorizar, sin que podamos expresar las *restricciones éticas* que preceden al juicio antes de su ejecución.[^18] [^18]: Basti, G., & Vitiello, G. (2023). Deep learning opacity, and the ethical accountability of AI Systems. A new perspective. In *Studies in applied philosophy, epistemology and rational ethics* (pp. 21–73). [https://doi.org/10.1007/978-3-031-39113-2\_2](https://doi.org/10.1007/978-3-031-39113-2_2) --- ### Consideraciones para el diseño de interfaces humano-LLM 1. **Diseño responsable**: Es necesario desambiguar capacidades reales vs capacidades percibidas en las interfaces (Shneiderman, 2020). 2. **Equilibrio óptimo entre automatización y control humano**: Un exceso de automatización puede generar falsa confianza en condiciones donde solo el control humano puede resultar lo bastante flexible y ágil para responder a las peculiaridades de un entorno cambiante. 3. **Alfabetización sobre arquitecturas *transformer***: Introducir la competencia técnica para identificar y contrarrestar *el sesgo antropomórfico* como objetivo de la educación básica. -- > No interactuamos con la tecnología, sino con las *metáforas cognitivas* acerca de su potencial. Cada fase de desarrollo técnico deja su impronta de conceptos y rutinas: *descargar, grabar o conectar y relacionar información, en soporte efímero -memoria RAM- o duradero -unidades de disco-*. -- → La IAGen se populariza a tal velocidad que apenas deja espacio para aplicar <mark>analogías superficiales con procesos impenetrables de la mente humana</mark>: no debe extrañar que se les atribuyan creencias, deseos, intenciones y estructuras cognitivas o representaciones de orden superior como esquemas causales o modelos mentales (Draaisma, 2000). ??? - En el caso de ChatGPT, la percepción pública de su utilidad y funcionalidad evolucionó con rapidez desde que comenzó a popularizarse su uso. Entre diciembre de 2022 y febrero de 2023 predominaron inicialmente las actitudes positivas, que pronto dieron paso a un incremento gradual de valoraciones negativas sobre un extenso listado de elucubraciones, que incluían la preocupación por aspectos éticos y de privacidad, el exceso de confianza en su capacidad —incluyendo la posibilidad de contribuir al declive de componentes valiosos de la experiencia subjetiva— y el riesgo de su instrumentalización en campañas de desinformación o para instigar la división social.[^22] [^21]: Draaisma, D. (2000). *Metaphors of memory: A history of ideas about the mind*. Cambridge University Press. [^22]: Acosta-Enriquez, B. G., Ballesteros, M. A. A., Jordan, O. H., Roca, C. L., & Tirado, K. S. (2024). Analysis of college students’ attitudes toward the use of ChatGPT in their academic activities: effect of intent to use, verification of information and responsible use. *BMC Psychology*, 12(1). [https://doi.org/10.1186/s40359-024-01764-z](https://doi.org/10.1186/s40359-024-01764-z); Acosta-Enriquez, B. G., Ballesteros, M. A. A., Vargas, C. G. A. P., Ulloa, M. N. O., Ulloa, C. R. G., Romero, J. M. P., Jaramillo, N. D. G., Orellana, H. U. C., Anzoátegui, D. X. A., & Roca, C. L. (2024). Knowledge, attitudes, and perceived Ethics regarding the use of ChatGPT among generation Z university students. *International Journal For Educational Integrity*, 20(1). [https://doi.org/10.1007/s40979-024-00157-4](https://doi.org/10.1007/s40979-024-00157-4); Hua, S., Jin, S., & Jiang, S. (2023). The Limitations and Ethical Considerations of ChatGPT. *Data Intelligence*, 6(1), 201-239. [https://doi.org/10.1162/dint\_a\_00243](https://doi.org/10.1162/dint_a_00243); Elhersh, G. A., & Alqawasmeh, H. K. (2024). Public sentiment and ethical considerations of ChatGPT in higher education: Insights from data analytics of conversations on platform X. *Journal of Infrastructure Policy and Development*, 8(12), 7518\. [https://doi.org/10.24294/jipd.v8i12.7518](https://doi.org/10.24294/jipd.v8i12.7518) --- ## La controversia sobre LLM con memoria ampliada La mayoría de los LLM actuales operan con capacidad restringida para almacenar y recuperar posteriormente un registro de las acciones del usuario (sin repetir instrucciones procesadas en tareas previas). > Poco eficiente este ahorro en consumo de recursos para memoria y depuración de resultados: *el sistema olvida indicaciones que recibe con regularidad*. > <mark>En la cognición humana la *memoria episódica* es clave</mark> para planificar el futuro sin perder conexiones significativas con eventos clave del pasado (déficit común en los LLM). -- → <mark>Sistemas de IA con memoria episódica potenciada pueden aproximarse más al desempeño al humano</mark>, exhibir capacidades mejoradas y admitir elementos de agencia más sofisticados. Una secuencia más extensa de aprendizajes y un registro más detallado de acciones/inputs en mayor diversidad de tareas los haría más seguros y con perfiles muy especializados. > Personalizar el modelo, en función del uso que hace el operador humano, permite supervisar, comprender y controlar mejor sus acciones, lo hace previsible y mucho más eficiente. → Riesgo: el contenido de la memoria episódica **estaría en la diana de actores maliciosos**. ??? Se presta a una instrumentalización previsible por cualquier actor interesados en sesgar los resultados o desinformar, y comprometer la fiabilidad general del sistema de IA agencial. Para evitarlo, DeChant (2022) sugiere: 1\. Los recuerdos deben ser interpretables por los usuarios. 2\. Los usuarios deberían poder agregar o eliminar recuerdos. 3\. Las memorias deben estar en un formato que permita a los usuarios aislarlas y separarlas del resto del sistema del que forman parte. 4\. Los agentes de IA no deben editar los recuerdos.[^33] [^33]: DeChant, C. (2022, 22 enero). *Episodic memory in ai agents poses risks that should be studied and mitigated*. arXiv. [https://arxiv.org/html/2501.11739v2](https://arxiv.org/html/2501.11739v2) --- ## Modelos <style> .tab-btn { cursor:pointer; margin: 0 5px; padding: 5px 10px; background:#ccc; border:none; } .tab-content { display:none; margin-top:10px; } </style> <button class="tab-btn" onclick="showTab('tab1')">BrainGPT</button> <button class="tab-btn" onclick="showTab('tab2')">BioGPT</button> <button class="tab-btn" onclick="showTab('tab3')">Geneformer</button> <button class="tab-btn" onclick="showTab('tab4')">AlphaFold 3</button> <button class="tab-btn" onclick="showTab('tab5')">AlphaGenome</button> <button class="tab-btn" onclick="showTab('tab6')">SciAgents</button> <button class="tab-btn" onclick="showTab('tab7')">Manus</button> <hr> <div id="tab1" class="tab-content"> <strong>BrainGPT: Analiza, sintetiza y produce contenido científico a partir de literatura en neurociencias.</strong><br><br> Entrenado sobre un corpus mixto que incluye artículos científicos, libros de texto técnicos y fuentes académicas en psicología, neurociencia y filosofía de la mente. Utiliza técnicas de alineación semántica y ajuste fino supervisado con criterios epistémicos para maximizar la coherencia discursiva.<br><br> Requiere instrucciones precisas, con conceptos bien definidos y sin ambigüedades léxicas. Se comporta óptimamente cuando se emplean taxonomías conceptuales, referencias explícitas y preguntas con contexto argumentativo claro. Solicita reformulaciones para adaptarse al usuario.<br><br> → Fortaleza: puede producir texto analítico y metanálisis rápido y de calidad; identifica supuestos teóricos, elementos anómalos y datos probables para diseños robustos. Diferencia bien entre hechos, interpretaciones y opiniones. <br> → Su sistema de autovalidación lo hace limitado para temas empíricos recientes o en áreas ajenas a su corpus disciplinar. </div> <div id="tab2" class="tab-content"> <strong>BioGPT: Modelo entrenado con literatura biomédica y genómica.</strong><br><br> Optimizado con datos y millones de resúmenes de PubMed, ClinicalTrials.gov, patentes biomédicas y conjuntos anotados de literatura genómica. Su arquitectura incorpora embedding especializados para nombres de proteínas, genes y fármacos, así como taxonomías médicas como MeSH y UMLS.<br><br> Para obtener respuestas fiables, es crucial especificar el organismo, el nivel de escala (celular, molecular) y el tipo de proceso biológico. El modelo responde mejor ante preguntas estructuradas en formato de hipótesis o consulta experimental. Precisa clarificar el propósito experimental o clínico. Su eficiencia comunicativa se maximiza ante preguntas estructuradas en formato de hipótesis experimental o consulta diagnóstica, respetando normas éticas biomédicas implícitas.<br><br> → Fortaleza: alta precisión en el procesamiento de lenguaje biomédico y genético, por la calidad de las fuentes; puede detectar sesgos en la literatura, sugerir relaciones causales e integrar contenido interdisciplinar. <br> → No siempre detecta la ambigüedad terminológica ni contradicciones entre fuentes clínicas recientes. </div> <div id="tab3" class="tab-content"> <strong>Geneformer: <em>Transformer</em> adaptado al análisis de expresiones genéticas.</strong><br><br> Geneformer se basa en datos de transcriptómica masiva como Tabula Muris, GTEx y Human Cell Atlas. Integra información contextual sobre la expresión génica en distintos tipos celulares y estados fisiológicos, entrenado con modelos contrastivos (compara pares de datos) y métricas de similitud funcional.<br><br> Funciona mejor al recibir datos tabulares o vectores de expresión normalizados. Es recomendable indicar explícitamente las condiciones experimentales, la referencia genómica y los criterios de filtrado si se trabaja con muestras. Reconoce intenciones analíticas específicas (clustering, clasificación, análisis diferencial).<br><br> → Fortaleza: Gran capacidad para detectar patrones de coexpresión y clasificar fenotipos moleculares; alta precisión y consistencia analítica en estudios longitudinales. <br> → Su rendimiento decrece en contextos de baja cobertura (para estudios de diversidad genómica, p. ej.) o expresiones con ruido técnico elevado. </div> <div id="tab4" class="tab-content"> <strong>AlphaFold 3: Predice estructuras proteicas con alta precisión.</strong><br><br> Utiliza secuencias de UniProt, alineamientos múltiples de MSAs y datos estructurales de PDB, combinados con simulaciones físicas para refinar la conformación espacial. Ha sido entrenado con estrategias de autoatención tridimensional y aprendizaje supervisado sobre complejos proteicos.<br><br> Para mejores resultados, conviene aportar secuencias completas, evitar mutaciones artificiales no anotadas y especificar dominios funcionales. Funciona óptimamente en proteínas monoméricas o con plegamientos bien conservados.<br><br> → Fortaleza: Rendimiento muy alto en predicciones estructurales de proteínas conocidas; sin embargo, puede fallar en regiones desordenadas, péptidos cortos o interacciones transitorias no bien documentadas. <br> → Limitación: AlphaFold es muy útil para descubrir la estructura en 3D de una proteína; pero en biología lo interesante ocurre en la dinámica y las interacciones; debe mejorarse para que ayude a modelar las interacciones entre proteínas, ARN y ADN. </div> <div id="tab5" class="tab-content"> <strong>AlphaGenome: Ensamblaje y anotación de genomas a escala masiva.</strong><br><br> Desarrollado con datasets de ENA, GenBank y Genome Reference Consortium, y se entrena con pipelines que incluyen BWA, SPAdes, y modelos de anotación tipo MAKER. Posee <mark>módulos para detección de variantes, ensamblaje de novo y anotación estructural o etiquetado de elementos funcionales</mark> (genes y regiones reguladoras).<br><br> Requiere secuencias de alta calidad, especificando el tipo de ensamblaje (referencia o de novo) y parámetros de cobertura y profundidad adecuados. Recomendable validar las regiones repetitivas y secuencias ambiguas antes del procesamiento. Combina capas convolucionales y transformadores.<br><br> → Fortaleza: Muy eficiente en tareas de ensamblaje genómico y metagenómico; <mark>analiza regiones codificantes del ADN (2%) y el 98% del genoma restante</mark>. Puede detectar variantes genéticas críticas, asociadas con enfermedades poco comunes, y orientar sobre posibles tratamientos.<br> → Limitaciones con genomas altamente polimórficos, zonas teloméricas y organismos sin referencias previas. Puede fallar en la captura de patrones específicos de expresión en células y tejidos. </div> <div id="tab6" class="tab-content"> <strong>SciAgents: Agentes autónomos para acelerar el descubrimiento científico.</strong><br><br> Basado en arquitecturas multiagente entrenadas con corpus heterogéneos (arXiv, Wikipedia y bases de datos como Scopus y Semantic Scholar). Utiliza mecanismos de coordinación distribuida y razonamiento argumentativo. Integra (1) grafos de conocimiento a gran escala para organizar y conectar ideas científicas; (2) varios LLM y herramientas avanzadas de recuperación de datos; (3) sistemas multiagente con capacidades de aprendizaje in situ.<br><br> Es aconsejable definir explícitamente las metas del sistema, los roles de cada agente y las reglas de actualización entre turnos. Se adapta bien a esquemas colaborativos guiados por protocolos estructurados o simulaciones de revisión por pares.<br><br> → Fortaleza: Gran versatilidad para explorar y refinar hipótesis científicas, investigar de forma autónoma, y descubrir mecanismos subyacentes o propiedades inesperadas. <mark>Supera a expertos en capacidad heurística</mark>. <br> → Menor rendimiento en dominios infrarrepresentados en el corpus inicial. </div> <div id="tab7" class="tab-content"> <strong>Manus: Sistema multiagente autónomo que integra funcionalidades de navegación, planificación, programación y uso de herramientas.</strong><br><br> Entrenado con más de 200 mil manuscritos científicos revisados por pares, repositorios de preprints y plantillas, normas y estilos editoriales. Incluye módulos de control gramatical multilingüe y validación bibliográfica automática.<br><br> Para resultados óptimos, conviene estructurar el texto en secciones convencionales (Resumen, Introducción, Metodología, etc.), indicar el público objetivo y evitar ambigüedades terminológicas. También admite retroalimentación iterativa sobre estilo y tono.<br><br> → Fortaleza: <mark>Gran capacidad para mejorar la redacción científica</mark>, aportando claridad y cohesión textual, <mark>sin perder contexto ni olvidar pasos</mark> en el desarrollo. <mark>Continúa la tarea programada aunque se apague el equipo</mark>. Depura bien el resultado y es <mark>muy útil para gestionar proyectos complejos de código.</mark><br> → Limitaciones en la interpretación de gráficos y diagramas, tablas no estructuradas o metáforas técnicas poco convencionales. </div> <script> function showTab(id) { document.querySelectorAll('.tab-content').forEach(el => el.style.display = 'none'); document.getElementById(id).style.display = 'block'; } </script> --- ### Conclusiones 1. Valor crucial de los datos de partida y de las bases de conocimiento asociadas (genómica, proteínas...) y **obsolescencia de modelos basados en reglas**, ciclos de retroalimentación y búsqueda semántica. 2. **Auge de la ingeniería de contexto y mejoras en el caché de tareas** (*memoria episódica*). > Frecuencia alta de alucinaciones provocadas por pérdida de contexto e imposibilidad de retomar el plan de trabajo. <br> -- 3. Los LLMs de frontera gestionan ventanas de contexto de 128K tokens aprox., insuficientes para escenarios agénticos con observación continua a partir de datos no estructurados (PDFs, sitios web, etc.). > Pero el **rendimiento de los LLM se degrada con contextos excesivamente largos**, aunque sobren recursos de hardware. <br> 4. Ciertos mecanismos externos (archivos *todo.md* de Manus.ai) ayudan a completar tareas complejas sin desviar el foco. > <mark>La corrección frecuente induce más refinamiento</mark> que los aciertos a la primera. Los errores aportan diversidad al entrenamiento: más eficiencia y mejor rendimiento general. ??? 1. Manus: https://manus.im/es/blog/Context-Engineering-for-AI-Agents-Lessons-from-Building-Manus 2. https://nuclio.school/blog/todo-sobre-manus-ai-como-usar-agentes-ia-autonomos-en-2025/ 3. Fact-checking and public website with Manus: https://hmyujnmf.manus.space/ 4. https://github.com/nordeim/Manus-AI-Agent 5. https://github.com/nordeim/Manus-AI-Agent/blob/main/about_Manus_AI_agent.md 6. https://deepmind.google.com/science/alphagenome/ 7. https://www.alphagenomedocs.com/colabs/visualization_modality_tour.html 8. https://storage.googleapis.com/deepmind-media/papers/alphagenome.pdf 9. https://braingpt.org/ | https://huggingface.co/microsoft/biogpt 10. https://geneformer.readthedocs.io/en/latest/ 11. https://research.google/blog/accelerating-scientific-breakthroughs-with-an-ai-co-scientist/ 12. https://arxiv.org/abs/2505.02024 13. https://www.technologyreview.com/2025/03/11/1113133/manus-ai-review/ --- ### Referencias <font size="3"> 1. Placani, A. (2024). Anthropomorphism in AI: hype and fallacy. AI And Ethics, 4(3), 691-698. https://doi.org/10.1007/s43681-024-00419-4 2. Pavlik, J. V. (2023). Collaborating With ChatGPT: Considering the Implications of Generative Artificial Intelligence for Journalism and Media Education. Journalism & Mass Communication Educator, 78(1), 84-93. https://doi.org/10.1177/10776958221149577 3. Shen, M., Li, Y., Chen, L., & Yang, Q. (2025). From Mind to Machine: The Rise of Manus AI as a Fully Autonomous Digital Agent. arXiv. https://doi.org/10.48550/arXiv.2505.02024 4. Marcus, G. (2020). The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence. arXiv (44-46). https://arxiv.org/pdf/2002.06177 5. Manzini, A. et al. (2024). Should users trust advanced AI assistants? Justified trust as a function of competence and alignment. 2022 ACM Conference on Fairness, Accountability, and Transparency. https://doi.org/10.1145/3630106.3658964 6. Goetz et al. (2023). Unreliable LLM Bioethics Assistants: Ethical and Pedagogical Risks. The American Journal of Bioethics, 23(10), 89-91. https://doi.org/10.1080/15265161.2023.2249843 7. Torres-Martínez, S. (2025). Dehumanizing the human, humanizing the machine: organic consciousness as a hallmark of the persistence of the human against the backdrop of artificial intelligence. AI & Society. https://doi.org/10.1007/s00146-024-02165-x 8. Hua, S., Jin, S., & Jiang, S. (2023). The Limitations and Ethical Considerations of ChatGPT. *Data Intelligence*, 6(1), 201-239. https://doi.org/10.1162/dint_a_00243 </font>