Miguel Moreno
Universidad de Granada
La relación entre gnoseología filosófica y disciplinas científicas emergentes o consolidadas es compleja y difícil de precisar en pocas líneas, al menos desde finales del siglo XVIII. Si proyectáramos los criterios de demarcación de la epistemología de la ciencia contemporánea hacia el pasado, habrían resultado dudosas o metodológicamente cuestionables muchas prácticas que contribuyeron a desarrollos tan exitosos como el descubrimiento de Urano en 1781, por William Herschel; los experimentos con pilas eléctricas de Alessandro Volta en 1800 (y primeras baterías); la teoría atómica de John Dalton en 1808 (aplicable a todos los elementos, entendiendo las reacciones químicas como reorganización de átomos); la teoría cinética de los gases desarrollada por Robert Boyle, Jacques Charles y Joseph Gay-Lussac entre 1802 y 1808; y los experimentos en electromagnetismo de Hans Christian Oersted, André-Marie Ampère y Michael Faraday entre 1820 y 1830.
Aunque la revolución científica moderna había ocurrido entre los siglos XVI y XVII, la consolidación del método hipotético-deductivo en la Filosofía Natural fue acompañada de muchos elementos especulativos, incertidumbres y prejuicios ontológicos acerca del valor de la inducción, la obtención de evidencia y los conceptos de causalidad aplicables en física y en biología. Muchos esfuerzos de clarificación conceptual tuvieron resultados notables en física (sobre todo en termodinámica y electromagnetismo), y no menos relevantes en biología (teoría de la evolución por selección natural) o psicología (percepción y papel de las sensaciones en el conocimiento). Pero puede sorprender el tiempo que se mantuvieron intactas abstracciones como la de tiempo y espacio absolutos en la explicación del movimiento hecha por Newton, junto con otras muchas consideraciones acríticamente asumidas de la alquimia y la astrología de la época.1
El avance simultáneo de diversas ramas de la filosofía natural entre 1780 y 1840 originó nuevas disciplinas y ramas de la ciencia contemporánea, que cristalizaron en desarrollos teóricos tan notables como la teoría de la formación de los planetas de Laplace (se originaron al desprenderse sucesivamente de la masa solar en ignición y en un movimiento rotatorio) o la ampliación de la tabla periódica de los elementos químicos (cuando Mendeleiev ordenó los átomos según sus propiedades y predijo la existencia de algunos elementos desconocidos). Los nuevos protocolos de investigación y trabajo sistemático de laboratorio redujeron el papel del azar en muchos resultados y facilitaron descubrimientos como el de los microorganismos, por Pasteur (demostrando así la causa de muchas enfermedades infecciosas y haciendo viables los primeros ensayos de vacunación). O, tras una revisión sistemática de muestras recogidas durante expedición a bordo del Beagle, el núcleo teórico-conceptual de una teoría de la evolución por Darwin (y Wallace), según la cual las especies cambian a lo largo del tiempo por selección natural y adaptación al medio ambiente.
Sin embargo, los déficits teóricos y conceptuales en las metodologías de referencia dejaron en segundo plano contribuciones tempranas que, con décadas de perspectiva, resultaron cruciales para la comprensión de aspectos centrales de la biología y la psicología contemporánea,2 mientras daban audiencia y prestigio social a charlatanes de la frenología y la organología como Franz Joseph Gall, pese a las advertencias de profesionales destacados de la medicina y la cirugía de la época.3, 4
Del mismo modo que la física contemporánea se parece poco a lo que Aristóteles entendió por física, la teoría del conocimiento resultante de la interacción con la ciencia y la cultura desde finales del XVIII se parece poco a la gnoseología renacentista. Y es así pese al papel destacado que desempeñaron autores como René Descartes, David Hume, John Locke o William Whewell en clarificar las fuentes y procedimientos de obtención de conocimiento fiable. Incluso este último —a quien se atribuye la propuesta de sustituir el término filósofo natural por científico, dada la importancia que otorgaba a la inducción como base del método científico para conectar los hechos y las ideas— consideró perfectamente aceptable recurrir a causas sobrenaturales para explicar los saltos y vacíos en el registro fósil en la historia de la Tierra, por lo que no debe sorprender su controversia con quienes —como John Stuart Mill— sostenían la importancia de la lógica frente a la inducción para ampliar el conocimiento fiable.
Durante la segunda mitad del siglo XX se produce la consolidación de la epistemología como reflexión sistemática ligada a las ramas de la ciencia con mayor desarrollo: física, astrofísica, física nuclear, biología, bioquímica, genética, genética molecular, computación y teoría de la información, entre otras. Pero durante siglos la gnoseología filosófica había mantenido lazos estrechos con la filosofía natural y con el pensamiento matemático de su tiempo; y desde la ilustración griega se había considerado la geometría tan importante o más que la lógica para entrenar el razonamiento humano en el abordaje de múltiples problemas filosóficos. La diferencia en el siglo XX deriva de la complejidad de las relaciones interdisciplinares —que dificulta la coordinación entre saberes especializados— y de la mayor dificultad para conectar metodologías, herramientas de trabajo y dominios de conocimiento alejados entre sí, pero relevantes para aportar soluciones eficaces en problemas complejos (como suele ocurrir en cuestiones ambientales y de salud pública, por ejemplo).
Otro aspecto que condiciona el desarrollo de la teoría del conocimiento atañe al papel de la tecnología como factor determinante para el avance de la investigación científica y la consolidación de conocimiento fiable. En la historia de la ciencia y la tecnología se alude a la big science para explicar los cambios en la investigación científica ocurridos en los países industrializados durante y después de la Segunda Guerra Mundial. La investigación científica de calidad tiene como referente el modelo de proyectos a gran escala con financiación estatal que ha sido la condición de posibilidad material, profesional y financiera requerida para consolidar los grandes equipos de trabajo e instalaciones (aceleradores de partículas, grandes telescopios, láseres de alta potencia, colisionador de hadrones, laboratorios involucrados en el Proyecto Genoma Humano, etc.) responsables de las mayores transformaciones sociales, culturales, productivas y medioambientales de las últimas décadas.5
La complejidad creciente y la naturaleza multidimensional de los problemas en los que disciplinas científicas, tecnología, desarrollos normativos y ciencias sociales deben coordinarse para encontrar soluciones óptimas, eficientes e igualitarias sin generar conflictos ni distorsiones irreversibles de la dinámica social constituye un nuevo contexto de desafíos para la epistemología contemporánea, involucrada a menudo en problemas de carácter ético, político o geoestratégico para los que no disponía de perspectiva ni base teórico-conceptual.
1. Newton, Isaac (2011, orig. 1686). Principios matemáticos de la filosofía natural. Tecnos.
2. Piccolino, Marco, and Marco Bresadola (2002). “Drawing a Spark from Darkness: John Walsh and Electric Fish.” Trends in Neurosciences 25 (1): 51–57. https://doi.org/10.1016/S0166-2236(00)02003-8.
3. Wyhe, John Van (2002). “The Authority of Human Nature: The Schädellehre of Franz Joseph Gall.” The British Journal for the History of Science 35 (1): 17–42. https://doi.org/10.1017/S0007087401004599.
4. Sakalauskaitė-Juodeikienė, Eglė et al. (2017). “The Reception of Gall’s Organology in Early-Nineteenth-Century Vilnius.” Journal of the History of the Neurosciences 26 (4): 385–405. https://doi.org/10.1080/0964704X.2017.1332561.
5. El conocimiento aplicado y su impacto social fue objeto de estudio en obras como la Nueva Atlántida (The New Atlantis, 1626), de Francis Bacon, considerada uno de los primeros ensayos de prospectiva tecnológica.
El dinamismo de diversos dominios de investigación teórica y aplicada en el panorama científico actual contribuye a expandir los límites del conocimiento y a redefinir las metodologías y herramientas de trabajo con mayor potencial para transformar la sociedad y la tecnología de los próximos años.
La creciente dificultad para distinguir entre autoría humana y producción automatizada de contenidos carentes de rigor y base científica puede tener un efecto social y político gravemente distorsionador de la calidad del debate público y de la participación democrática. Sus implicaciones epistémicas atañen a las fuentes de evidencia, a la calidad de los procesos de filtrado y supervisión experta de contenidos, a la validación de los modelos y servicios puestos a disposición de usuarios o empresas y a las garantías del marco regulador vinculante para evitar que cualquier actor disemine contenidos e información de interés público sin las debidas garantías de objetividad, equilibrio y responsabilidad informativa.
El problema comenzó a tener una incidencia social significativa con la manipulación de bots y sistemas de mensajería en redes sociales durante las campañas de 2016 en Reino Unido (Brexit) y EE. UU. (presidenciales, con victoria de D. Trump); pero adquiere dimensiones inquietantes como factor de desestabilización política, polarización y riesgo de ciberseguridad a gran escala en los años posteriores.1, 2, 3
Una campaña de propaganda y acoso político orquestada con herramientas de IA fácilmente accesibles permite crear e introducir fácilmente en las redes contenido sesgado con apariencia engañosa de rigor y base histórica, por ejemplo. Sin mecanismos adecuados de control, puede permitir a grupos sin escrúpulos amplificar contenido discriminatorio para reforzar prejuicios existentes o llevar al colapso programas genuinos de lucha contra la pobreza, la discriminación o la mejora de las condicione de vida de millones de personas.4
La IA generativa puede ser utilizada para magnificar opiniones extremas y generar contenido que apela a las emociones fuertes, aquellas que activan reacciones irreflexivas o abiertamente irracionales en grandes sectores de la población. Amplificar el impacto de posiciones radicales incrementa las oportunidades de conflictos incontrolados, sustentados en ecosistemas de información fragmentados, cámaras de eco y entornos culturales dominados por patrones destinados a confirmar las creencias de grupo.5, 6
La dificultad para identificar el contenido generado por IA puede ser utilizada para crear noticias falsas, imágenes manipuladas y discursos engañosos dirigidos a minar la confianza en los medios profesionalizados, en las instituciones de control y en los cauces de comunicación científica. Sin capacidad para auditar el proceso de entrenamiento y la calidad de las fuentes de información utilizadas, será difícil establecer garantías robustas de transparencia, calidad, seguridad y reproducibilidad en los resultados obtenidos con tecnologías avanzadas de IA generativa.7, 8
Con la biología sintética se asocia un gran potencial para introducir rasgos inéditos en los sistemas biológicos existentes o desarrollar otros con funciones nuevas y mejoradas. Su potencial puede combinarse con desarrollos en el ámbito de la medicina personalizada, y esta a su vez resultar potenciada con el uso de nuevas capacidades de simulación de procesos biológicos para ensayar con fármacos innovadores y reproducir al detalle las características de ciertos órganos o sistemas del cuerpo humano con fines médicos.9, 10
Las técnicas avanzadas de edición genética ligadas al empleo de sistemas CRISPR/Cas y sus alternativas establecen nuevos márgenes de precisión y potencial para el desarrollo de organoides y para obtener modelos más realistas con los que ampliar los conocimientos biológicos y poner a prueba nuevos tratamientos. En conjunto, aportan posibilidades inéditas de comprensión de aspectos evolutivos, fisiológicos, genéticos y organizativos de gran interés para los estudios comparativos del comportamiento y la cognición.11
Es innegable que la investigación científica contemporánea ha expandido notablemente los objetivos y problemas que interesan a la epistemología de la ciencia. No se centra solo en las características del conocimiento producido por la ciencia (y sus requisitos de objetividad, racionalidad, verificabilidad o falsabilidad), sino que ha reforzado la pertinencia de una teoría del conocimiento apta para integrar desarrollos interdisciplinares en dominios consolidados y emergentes, tecnologías y enfoques ligados a la big science y el desafío de los desarrollos en computación cuántica, inteligencia artificial y neurociencia cognitiva como base de nuevas posibilidades de comprensión de la naturaleza humana y del potencial de ampliación del conocimiento humano, sin las limitaciones impuestas por el sustrato biológico o el diseño evolutivo.
1. Abellán López, M. Á. (2023). “Negacionismo (Concepto).” EUNOMÍA. Revista En Cultura de La Legalidad, no. 24 (March): 250–60. https://doi.org/10.20318/eunomia.2023.7664.
2. Moreno Muñoz, M. (2021). “Negacionismo y Conflicto Social.” Gazeta de Antropología, 37 (3) 09. https://doi.org/10.30827/Digibug.70333.
3. Moreno Muñoz, M. (2018): "Mediación tecnológica de la interacción social y riesgos de su instrumentalización: el caso de la plataforma Facebook". Gazeta de Antropología, 34/2, art. 08: 1-18. http://hdl.handle.net/10481/54720.
4. Lewandowsky, S. et al. (2017). “Beyond Misinformation: Understanding and Coping with the ‘Post-Truth’ Era.” Journal of Applied Research in Memory and Cognition 6 (4): 353–69. https://doi.org/https://doi.org/10.1016/j.jarmac.2017.07.008.
5. Reisach, U. (2021). “The Responsibility of Social Media in Times of Societal and Political Manipulation.” European Journal of Operational Research 291 (3): 906–17. https://doi.org/https://doi.org/10.1016/j.ejor.2020.09.020.
6. Chen, L. et al. (2022). “Social Network Behavior and Public Opinion Manipulation.” Journal of Information Security and Applications 64: 103060. https://doi.org/https://doi.org/10.1016/j.jisa.2021.103060.
7. Dwivedi, Y. K. et al. (2021). “Artificial Intelligence (AI): Multidisciplinary Perspectives on Emerging Challenges, Opportunities, and Agenda for Research, Practice and Policy.” International Journal of Information Management 57: 101994. https://doi.org/https://doi.org/10.1016/j.ijinfomgt.2019.08.002.
8. Vesnic-Alujevic, L. et al. (2020). “Societal and Ethical Impacts of Artificial Intelligence: Critical Notes on European Policy Frameworks.” Telecommunications Policy 44 (6): 101961. https://doi.org/https://doi.org/10.1016/j.telpol.2020.101961.
9. Mirza, Zeenat, and Sajjad Karim (2019). “Advancements in CRISPR/Cas9 Technology—Focusing on Cancer Therapeutics and Beyond.” Seminars in Cell & Developmental Biology 96: 13–21. https://doi.org/https://doi.org/10.1016/j.semcdb.2019.05.026.
10. Bianchini, F. (2016). Artificial intelligence and synthetic biology: A tri-temporal contribution. BioSystems (2016), http://doi.org/10.1016/j.biosystems.2016.01.001
11. Martin, R. M. et al. (2019). “Highly Efficient and Marker-Free Genome Editing of Human Pluripotent Stem Cells by CRISPR-Cas9 RNP and AAV6 Donor-Mediated Homologous Recombination.” Cell Stem Cell 24 (5): 821-828.e5. https://doi.org/10.1016/j.stem.2019.04.001.
Las tres últimas décadas han proporcionado perspectiva y evidencia robusta sobre el alcance devastador de la crisis climática y el papel que juegan la ciencia, la tecnología y el entramado industrial de producción, transporte y distribución de productos de consumo en la aceleración de impacto físico y humano. Pero la calidad, extensión y nivel de consenso experto asociado con los resultados de la investigación interdisciplinar sobre el problema ambiental no han logrado el respaldo esperable en los sistemas de liderazgo y coordinación internacional vigentes. Las sociedades humanas están más próximas que nunca a un umbral crítico de crisis multidimensional, disrupción de los mecanismos de cooperación global y falta de escala en los recursos e iniciativas de adaptación y mitigación, que muchos expertos consideran antesala de un escenario catastrófico de proporciones inimaginables (para las que se reserva la categoría de riesgo existencial).1, 2
Si bien la preocupación por las cuestiones ambientales ha estado presente en la comunidad científica con mucha antelación a sus picos de visibilidad en los medios generalistas, la percepción pública no ha evolucionado al ritmo que se acumula conocimiento riguroso y evidencia sobre la escala, frecuencia e intensidad de los fenómenos catastróficos ligados al clima ya ocurridos y la gravedad de las amenazas que diversos modelos coinciden en proyectar sobre el futuro inmediato de las zonas más pobladas de todo el planeta Tierra.3, 4, 5, 6
La dificultad para lograr que el conocimiento experto llegue al público no especializado y sirva de soporte a opiniones informadas en el debate público no es un problema nuevo. Tiene sus precedentes en los intentos de transmitir a la opinión pública el criterio de la comunidad experta sobre los riesgos asociados con la tecnología nuclear, las técnicas de recombinación genética y el uso de sustancias prohibidas en el medio ambiente o en la producción industrial, entre otros dominios de problemas.7, 8, 9, 10
Desde los años sesenta (sobre todo a partir de los noventa) se consolidaron en el siglo pasado contribuciones de investigadores con una trayectoria científica destacada que acertaron en su modo de alertar a la opinión pública sobre la gravedad de ciertos problemas: el uso de DDT en las poblaciones de insectos por parte de Rachel Carlson, en su obra "Primavera silenciosa", de 1962; la gravedad de la crisis ambiental y la necesidad de salvar la barrera entre ciencias y humanidades por parte de Edward O. Wilson en sus obras "Consilience" (1998) y "Génesis: El origen de las sociedades"; la fragilidad del planeta Tierra y de sus ecosistemas por parte de James Lovelock, en sus obras "La venganza de la Tierra" y "Novaceno", entre otras. Este grupo de divulgadores expertos comparte la característica de presentarse como interlocutores dispuestos a contribuir, sin intermediarios no especializados, a generar opinión informada, sensibilizar sobre la gravedad de ciertos desafíos y proporcionar elementos valiosos para acciones sociales, educativas y reguladoras ambiciosas, destinadas a preservar los bienes comunes (salud, biodiversidad, calidad del aire, ecosistemas, etc.) en peligro.
En el siglo XXI han tenido impacto destacable obras como Climate cover-up: The crusade to deny global warming, de James Hoggan (2009) y en particular Mercaderes de la duda, de Naomi Oreskes y Eric Conway (2010), sobre las estrategias de desinformación, negacionismo y subestimación de riesgos asociados con la cuestión ambiental, el efecto del humo del tabaco en la salud y el daño ambiental de la lluvia ácida o el deterioro de la capa de ozono. Sin aportar necesariamente investigación original en todos los problemas estudiados, el mérito de estas contribuciones ha sido mostrar la necesidad de integrar conocimientos, metodologías de trabajo y estrategias de comunicación para identificar, prevenir y contrarrestar las acciones de desinformación, retraso normativo y prolongación artificial de controversias e incertidumbre que impiden adoptar medidas eficaces ante problemas globales de extraordinaria gravedad.11, 12
Este tipo de contribuciones han hecho evolucionar también el alcance, las prioridades y las metodologías de trabajo en la epistemología reciente. No basta pasar de puntillas por el problema de la desinformación y los criterios de demarcación entre ciencia y pseudociencia, como si se tratase de aspectos que solo podían condicionar las decisiones de algunas personas incautas y desinformadas sobre el tratamiento equivocado para un problema de salud. Cuando las dinámicas de irracionalidad se convierten en un fenómeno colectivo por el papel que adquieren tecnologías y plataformas diseñadas para captar la atención sin importar la veracidad o rigor de los contenidos, los demás ámbitos de la cultura y las cadenas de toma de decisiones resultan contaminadas y sesgadas por opiniones absurdas, invenciones interesadas y polarización artificial, hasta el punto de generar escenarios de conflicto inmanejables.13, 14
Reflexiones que podían resultar acertadas mientras quedaban circunscritas a las implicaciones de una rama particular de la ciencia, resultan hoy insuficientes cuando el conocimiento científico que debería ser una parte vital del repertorio de la especie para lidiar con los cambios y gestionar la incertidumbre pierde su valor y, en esta dinámica, su potencial para enriquecer creencias tradicionales con nociones más precisas y mejor fundadas en resultados contrastados de investigación. Las tendencias a la especialización disciplinar en la epistemología de la segunda mitad del siglo XX se han visto contrarrestadas por los programas de reflexión interdisciplinar orientados a integrar conceptos, elementos teóricos, intereses y herramientas con las que contribuir a un debate público más racional e informado sobre problemas, riesgos y amenazas de alcance global. Un escenario de crisis sin precedentes es también una nueva oportunidad para una teoría general del conocimiento.15, 16, 17
Entre otros desafíos, se plantea el conflicto que supone aceptar la incertidumbre inherente a la ciencia moderna y a sus modelos explicativos —especialmente en campos como la física cuántica o las ciencias del clima— y divulgar las implicaciones del conocimiento bien consolidado acerca de riesgos y amenazas cuyos procesos causales y escala de impactos es sistemáticamente ignorada o subestimada por la ciudadanía y sus representantes. La epistemología de la ciencia no puede limitarse a exponer los criterios de racionalidad y metodologías que explican el progreso en ciertas ramas del conocimiento, cuando los elementos de conocimiento interdisciplinar que deberían informar políticas públicas racionales en la anticipación de escenarios de riesgo y gestión de problemas complejos se menosprecian o ignoran sistemáticamente, sea por impericia o por cabildeo de grupos dispuestos a invertir lo necesario para impedir cualquier cambio que menoscabe sus intereses.
Cuando han podido desentrañarse los mecanismos esenciales de la vida y tanto las técnicas de edición genética avanzada como los desarrollos en biología sintética muestran las posibilidades casi ilimitadas de interferir y alterar mecanismos evolutivos que —como los vinculados a procesos de envejecimiento— parecían intocables, se constata con datos y precisión abrumadora la cadena de extinciones y pérdida de biodiversidad desencadenada por la acción humana.18
Cuando el riesgo de saturación informativa contra el que alertaba Edward. O Wilson en 1999 ha adquirido la dimensión de problema social con impacto sistémico, ninguna institución de las sociedades avanzadas parece capaz de establecer mecanismos eficaces para contrarrestarlo. Lo que a finales del siglo XX podía considerarse una tarea de vital importancia que demandaría individuos capaces de sintetizar y extraer sabiduría del trasfondo de ruido y distorsión informativa, pocas décadas después se plantea como un déficit de las democracias desarrolladas que les puede llevar a su propia destrucción, a menos que se articulen estrategias ambiciosas para promover el pensamiento crítico e identificar el valor moral de las necesidades y aspiraciones de la humanidad en su conjunto.19
Al ruido generado por la saturación de fuentes, canales y piezas informativas se suma hoy el potencial de la inteligencia artificial en aplicaciones y desarrollos que emulan o mejoran la competencia humana promedio para tareas intelectualmente exigentes. Nunca ha sido tan fácil imitar la apariencia de prácticas epistémicas genuinas con versiones fraudulentas o mixtificadoras capaces de eludir controles básicos de producción y calidad en los resultados. Las posibilidades de fraude científico y exageración o invención de méritos en carreras profesionales vertiginosas elevan a una nueva dimensión la discusión sobre los criterios de demarcación, el componente institucional y el papel de la teoría del conocimiento como ámbito de reflexión interdisciplinar, capaz de evolucionar en función de los avances científicos y tecnológicos y adaptándose a una pluralidad creciente de métodos y perspectivas.
La epistemología contemporánea no puede desarrollarse vinculada solo a unas pocas ramas aventajadas de la ciencia; opera bajo la presión selectiva de problemas, campos de investigación y prácticas epistémicas que desafían los límites del conocimiento humano, obligándola a ser tan innovadora y adaptable como las teorías científicas que busca comprender. Si dejamos aparte esta interpretación de la teoría del conocimiento, son realmente escasas las alternativas para mantener un proyecto verosímil de comprensión del universo complejo y en constante cambio en el que vivimos.20, 21
1. Dunlop, Ian, and David Spratt (2018). “What Lies Beneath: The Understatement of Existential Climate Risk.” Breakthrough - National Centre for Climate Restoration. https://climateextremes.org.au/wp-content/uploads/2018/08/What-Lies-Beneath-V3-LR-Blank5b15d.pdf.
2. Spratt, David, and Ian Dunlop (2019). “Existential Climate-Related Security Risk: A Scenario Approach.” Melbourne: Breakthrough - National Centre for Climate Restoration. https://docs.wixstatic.com/ugd/148cb0_a1406e0143ac4c469196d3003bc1e687.pdf.
3. Trisos, C. H., Merow, C., & Pigot, A. L. (2020). The projected timing of abrupt ecological disruption from climate change. Nature. https://doi.org/10.1038/s41586-020-2189-9.
4. Beard, S. et al. (2021). Assessing Climate Change’s Contribution to Global Catastrophic Risk. Futures. https://doi.org/https://doi.org/10.1016/j.futures.2020.102673.
5. Poumadère, M., Bertoldo, R., & Samadi, J. (2011). Public perceptions and governance of controversial technologies to tackle climate change: nuclear power, carbon capture and storage, wind, and geoengineering. Wiley Interdisciplinary Reviews: Climate Change, 2(5), 712–727. https://doi.org/10.1002/wcc.134.
6. Chung, J.-B., & Kim, E.-S. (2018). Public perception of energy transition in Korea: Nuclear power, climate change, and party preference. Energy Policy, 116, 137–144. https://doi.org/https://doi.org/10.1016/j.enpol.2018.02.007.
7. Tzotzos, G. T., Head, G. P., & Hull, R. (2009). Chapter 5 - Risk Perception and Public Attitudes to GM BT - Genetically Modified Plants (pp. 115–146). Academic Press.
8. Goodfellow, M. J., Williams, H. R., & Azapagic, A. (2011). Nuclear renaissance, public perception and design criteria: An exploratory review. Energy Policy, 39(10), 6199–6210.
9. van der Pligt, J., Richard Eiser, J., & Spears, R. (1984). Public attitudes to nuclear energy. Energy Policy, 12(3), 302–305.
10. Goodfellow, M. J., Williams, H. R., & Azapagic, A. (2011). Nuclear renaissance, public perception and design criteria: An exploratory review. Energy Policy, 39(10), 6199–6210.
11. Oreskes, N. (2019). Climate Change Will Cost Us Even More Than We Think. Nytimes.Com. https://www.nytimes3xbfgragh.onion/2019/10/23/opinion/climate-change-costs.html.
12. Brysse, K., Oreskes, N., O’Reilly, J., & Oppenheimer, M. (2013). Climate change prediction: Erring on the side of least drama? Global Environmental Change, 23(1), 327–337. https://doi.org/10.1016/j.gloenvcha.2012.10.008.
13. Moreno Muñoz, M. (2018): "De la tercera cultura a los ecosistemas de reflexión interdisciplinar: alfabetización integradora inspirada en desafíos globales", en J. L. Gómez Ordóñez (coord.), La cultura de nuestro tiempo. Editorial Universidad de Granada, 2018: 249-270. https://doi.org/10.5281/zenodo.2549991.
14. Hansson, S. O. (2017). Science denial as a form of pseudoscience. Studies in History and Philosophy of Science Part A, 63, 39–47. https://doi.org/10.1016/j.shpsa.2017.05.002.
15. Romanello, M. et al. (2023). The 2023 report of the Lancet Countdown on health and climate change: the imperative for a health-centred response in a world facing irreversible harms. The Lancet, 402(10419), 2346–2394. https://doi.org/10.1016/S0140-6736(23)01859-7.
16. MacAskill, William (2022). What We Owe the Future. Londres: Basic Books.
17. Rauch, J. (2021). The constitution of knowledge: A defense of truth. Brookings Institution Press.
18. Wilson, E. O. (2016). Half-earth: Our planet’s fight for life. Nueva York, NY, Estados Unidos de América: Liveright Publishing Corporation.
19. Wilson, E. O. (1998). Consilience. The Unity Of Knowledge. Vintage Books (p. 294).
20. Weisberg, Herbert I. (2014). Willful Ignorance: The Mismeasure of Uncertainty. Hoboken, NJ, Estados Unidos de América: Wiley-Blackwell.
21. Scharre, Paul (2023). Four Battlegrounds: Power in the Age of Artificial Intelligence. Nueva York, NY, Estados Unidos de América: WW Norton.
La diferencia entre epistemología y teoría general del conocimiento puede interpretarse como una cuestión de enfoque, tradición y problemas de referencia. Ambas disciplinas se ocupan del estudio del conocimiento humano, pero lo hacen desde perspectivas distintas y con intereses diferentes. La epistemología es una rama de la teoría del conocimiento, pero no la agota ni la sustituye. Se complementan, pero no se reducen una a la otra.
La filosofía especulativa fracasó en su intento de dar cuenta de los conceptos y las teorías de la ciencia moderna, especialmente a partir de la crisis terminológica y reinterpretaciones constantes en varios campos de la física a finales del siglo XIX. Este proceso prácticamente marca el derrumbe de la filosofía especulativa como fundamento de la ciencia, tras un periodo de acumulación de dificultades explicativas y desajustes con el avance de las demás disciplinas científicas.1
Pero tampoco el empirismo llevó a buen puerto su intento de basar todo el conocimiento en los datos de los sentidos, puesto que el desafío de explicar la génesis y la validez de los conceptos científicos resultó mayor de lo esperado y fracasaron los intentos de reducir las teorías a proposiciones observacionales.2
Ese aparente fracaso de la epistemología en el siglo XX —en su pretensión de emular una teoría más general del conocimiento— difícilmente encajaba con las expectativas de progreso a partir del estudio focalizado en las ciencias particulares, sobre todo en la física, la biología y la matemática. La epistemología sigue asociada con el estudio del conocimiento científico en sus múltiples ramas, obtenido mediante el uso de procedimientos sistemáticos, racionales y sustentados en la evidencia. En este sentido solapa su objeto con la filosofía de la ciencia, con la que comparte la pretensión de analizar la naturaleza, el origen, la estructura, los límites y la justificación del conocimiento científico, incluyendo los criterios de racionalidad y sus implicaciones.3
De ahí que la epistemología se desarrolle principalmente en el siglo XX, como consecuencia de los avances y las crisis de la ciencia moderna, inspirándose sobre todo en las tradiciones empirista, racionalista y pragmatista de la filosofía moderna (con referentes teóricos tan heterogéneos como Karl Popper, Thomas Kuhn, Imre Lakatos, Paul Feyerabend, W. V. O. Quine o Bas van Fraassen, entre otros).
La preocupación por los elementos universalizables de cada sistema filosófico que serían de interés para una teoría general del conocimiento (según plantea J. Hessen)4 ha sido relegada en favor del estudio de cómo el conocimiento puede obtenerse mediante diversas fuentes, formas y modos. Se asocia con su configuración a lo largo del siglo XIX, en parte como reacción a las críticas e intentos de reforma de la filosofía clásica, pero considerando también el carácter problemático de su cercanía a las tradiciones idealista, fenomenológica y hermenéutica de la filosofía contemporánea (cuyos referentes teóricos son Immanuel Kant, Georg Hegel, Edmund Husserl, Martin Heidegger o Hans-Georg Gadamer).5, 6
De resultar viable, el interés de una teoría general del conocimiento (TGC) —en el sentido de no estar limitada exclusivamente a la epistemología de las ciencias particulares— sería ofrecer una visión coherente del conocimiento humano que abarque sus diversas manifestaciones, sus fundamentos, alcance y limitaciones; y que ayude a entender mejor cómo adquirimos, usamos y evaluamos el conocimiento, tanto en el ámbito científico como en la resolución de problema de la vida cotidiana. Esto incluye la reflexión sobre sus implicaciones éticas, históricas, sociales y culturales. Y tiene numerosos precedentes en los intentos de unificar dominios explicativos en física, en biología y en otras ciencias.7
En ciencia la unificación no es solo un objetivo epistémico, sino un proceso dinámico que implica desarrollos conceptuales y matemáticos, y puede requerir la reestructuración de las teorías concernidas. Como sostiene Morrison, es improbable que tengan recorrido hoy las concepciones reduccionistas y explicativas de la unificación, sobre el supuesto de que una teoría unificada debe derivar o explicar todas las demás teorías. Tales enfoques ignoran la complejidad y la diversidad de las prácticas científicas, así como el papel de la interpretación y la representación en la construcción de las teorías unificadas. Morrison propone una visión estructural de la unificación, que se centra en las relaciones matemáticas y conceptuales que vinculan las diferentes teorías. Su ejemplo de referencia es la integración de la selección natural y la genética mendeliana en la genética evolutiva.8
La TGC podría ser útil para facilitar el diálogo y la colaboración entre las diferentes disciplinas y áreas del saber, reconociendo sus conexiones y diferencias en los aspectos relevantes. El contexto cultural, científico y filosófico de la tercera década del siglo XXI se caracteriza por una gran complejidad y diversidad de manifestaciones, bajo el efecto de cambios que aceleran la dinámica de multiplicación, especialización y fragmentación del conocimiento. Si bien la especialización abre nuevos espacios de creatividad para la investigación, la fragmentación puede contribuir a nuevas formas de irracionalidad y pérdida de foco entre la comunidad experta. Esto ocurre precisamente cuando mayor es la necesidad de encontrar soluciones a problemas sin precedentes en su alcance y complejidad, en los cuales cada paso debería estar sustentado en el mejor conocimiento disponible.8
El contexto formativo, el desarrollo de las destrezas filosóficas puede potenciarse con un bloque de contenidos teórico-prácticos centrados en la unidad del conocimiento y en los elementos teóricos, metodológicos e interdisciplinares que pueden contribuir a proporcionar una visión más global y crítica del conocimiento. Esta materia daría la oportunidad de integrar y relacionar los saberes de diferentes campos y niveles implicados en un extenso listado de problemas y estudios de caso. Y podría ser lo bastante detallada para contribuir a desarrollar competencias transversales (pensamiento crítico, creatividad, habilidades de comunicación y colaboración, disposición al aprendizaje permanente, etc.) asociadas con los retos y oportunidades de la sociedad del conocimiento.
Igualmente, serviría de antídoto frente a las perspectivas reduccionistas del conocimiento científico y sus aplicaciones, propiciando enfoques más integradores y reflexivos sobre cómo entender el mundo y el impacto de la actividad humana en él, identificando los valores e intereses sociales en la ciencia y la relación entre ciencia y otras formas de conocimiento o prácticas culturales.9-14
1. Eastman, Timothy E., Michael Epperson, y David Ray Griffin, eds. (2016). Physics and Speculative Philosophy: Potentiality in Modern Science. Berlín: De Gruyter. https://doi.org/10.1515/9783110451818.
2. Doppelt, Gerald (2005). “Empirical Success or Explanatory Success: What Does Current Scientific Realism Need to Explain?” Philosophy of Science 72 (5): 1076–87. https://doi.org/10.1086/508958.
3. Arran, Gare. (2014). Speculative Naturalism: A Manifesto. Cosmos and history: the journal of natural and social philosophy, 10(2), 300-323.
4. Hessen, Johannes (2006). Teoria del Conocimiento. Losada.
5. Compton, John J. (2002). “Toward a phenomenological philosophy of nature”. En Hermeneutic Philosophy of Science, Van Gogh’s Eyes, and God, 195–202. Dordrecht: Springer Netherlands.
6. Greco, D. (2023). Idealization in epistemology: A modest modeling approach. Londres, Inglaterra: Oxford University Press.
7. Jones, Todd (2013). "Unification", in Curd, Martin, y Stathis Psillos, eds. The Routledge companion to philosophy of science. Routledge. Ch. 52, pp. 552-560.
8. Morrison, Margaret (2000) Unifying Scientific Theories, Oxford: Oxford University Press.
9. Audi, R. (Ed.). (1999). The Cambridge Dictionary of Philosophy (2nd ed.). Cambridge University Press.
10. Audi, Robert (2006). Diccionario Akal de Filosofia. Akal Ediciones.
11. Bunge, Mario (1998). Epistemologia: Curso de Actualizacion. 2a ed. Siglo XXI Ediciones.
12. García, R. (2006). Epistemología y Teoría del Conocimiento. http://www.scielo.org.ar/scielo.php?script=sci_arttext&pid=S1851-82652006000200002.
13. Proudfoot, Michael, A. R. Lacey (2009). The Routledge dictionary of philosophy. 4a ed. Londres, Inglaterra: Routledge.
14. Keller, Albert (1988). Teoría general del conocimiento. Herder.
Entre los problemas que pueden analizarse como reflexiones preliminares para entender el interés de la teoría del conocimiento figuran la crisis de los modelos deterministas (por sus consecuencias para las metodologías de investigación científica) y el problema de la demarcación entre ciencia y otros productos culturales que compiten por un estatus o reconocimiento similar.1
El primero obliga a realizar un análisis del concepto de causalidad, incluyendo su evolución en el dominio teórico propio de la física clásica hasta sus versiones contemporáneas, conectadas con marcos teóricos de referencia y modelos del mundo físico completamente alejados del primero. En el paradigma clásico, el determinismo científico asume que los cambios en la realidad física se producen según principios o reglas totalmente predeterminadas, sin una incidencia efectiva del azar (este no sería más que un fenómeno aparente), aunque la complejidad del mundo lo haga casi impredecible en la práctica. Entendida la causalidad como la "relación necesaria entre causa y efecto", se aplica en ciencia a la relación entre acontecimientos, procesos, fenómenos con un patrón de regularidad y la producción de cierto efecto o resultado. La dependencia lógica y cronológica del efecto con respecto a la causa es el aspecto clave. Pero pueden ser muchos los factores que intervengan en la relación causal que desencadena el efecto.2, 3
Se puede interpretar la causalidad como una abstracción que indica cómo progresa el mundo, con un estatus de concepto básico que resulta útil para explicar otros conceptos (y para cuya explicación no cabe apelar a conceptos más básicos). La causalidad está implícita en la lógica y la estructura del lenguaje ordinario, y en la explicación científica es precisamente lo que se intenta explicitar, al margen de otros aspectos ontológicos, epistémicos o metafísicos de interés.3
En ciencia y filosofía se interpreta el principio de causalidad en el sentido de que para todo evento existe una causa, de la que el propio evento es uno de los efectos. En consecuencia, los sucesos no se producen de manera aislada, sino en procesos de interacción e interdependencia, a cuyos primeros componentes denominamos causa y efectos a los segundos. En la investigación científica se asume que la mejor forma de entender y explicar es descubriendo o explicitando las causas, lo que abre la posibilidad de prevenir y controlar los efectos en el dominio del mesocosmos. Pero quedan fuera del alcance del concepto de causa tradicional los ámbitos explicativos cuya base teórica se considera probabilística (es decir, no determinista), como en estadística inferencial y los campos de estudio de las ciencias sociales donde los modelos más comunes dependen del análisis estadístico de las variables identificadas. El anclaje probabilístico en las explicaciones obliga a manejar con cautela diversos elementos adicionales (población y muestra de datos, estimación de parámetros, cálculo de intervalos de confianza, puesta a prueba de hipótesis, etc.) de los que dependerá el grado de confianza y precisión de las inferencias útiles para la toma de decisiones informadas.4, 5
La noción no probabilística de causalidad se asocia en física con el determinismo como enfoque explicativo, según el cual el estado del universo en un momento dado, su historia pasada y su evolución hacia adelante se explican por las leyes básicas introducidas por la física clásica. Las leyes del movimiento de Isaac Newton permiten deducir los estados en ambas direcciones del tiempo si alguien conociera las posiciones y momentos presentes de todas las partículas. La única limitación sería de tipo práctico (p. ej., poder computacional) pero no ontológica o metafísica.6
El atractivo del enfoque determinista no se debe solo al carácter problemático de los enfoques rivales. Su poder explicativo y predictivo aporta herramientas para entender la cadena que asocia causas con efectos, pero a costa de difuminar el papel de la acción libre en cualquier eslabón de esa cadena. Si las leyes de la física son deterministas, y nuestras acciones son solo la suma de las interacciones de las partículas, parece que no queda espacio para la libre elección entre dos cursos de acción, porque los estados anteriores del universo ya habrán determinado el resultado de nuestra elección. Sin capacidad de elegir libremente, nadie debería ser premiado o castigado por sus acciones. La aceptación del indeterminismo en la física cuántica —pese a que esta asociación puede resultar hoy acrítica e irreflexiva— ha obligado a reconsiderar lo que significa "explicar" un fenómeno en ciencia, relegando el componente de certeza y sustituyéndolo por modelos probabilísticos que, dentro de los límites de nuestra capacidad de observación y medición, pueden ofrecer una explicación satisfactoria.7, 8
Tampoco el paradigma determinista clásico estaba exento de límites. A muchos efectos, no resultaba lo bastante determinista para explicar la complejidad de las condiciones iniciales que habrían podido llevar al universo actual.9 Y dejaba abierta la cuestión de cómo valores indeterminados de las magnitudes físicas se vuelven determinados.10 Las declaraciones sobre el determinismo universal de Laplace y Du Bois-Reymond se hicieron desde un contexto y programa de investigación específicos (el cual, según van Strien, no representaba una opinión mayoritaria, por lo que cabe considerar el determinismo de esta época más una expectativa que un resultado establecido). Y físicos como Mach, Poincaré y Boltzmann no consideraban el determinismo una afirmación sobre el mundo, sino más bien una característica de la investigación científica.17
El prejuicio determinista no puede basarse solo en la experiencia acumulada de casos observados (puesto que deja fuera casos no observables y no necesariamente compatibles con el patrón de los observados). El principio de indeterminación de Heisenberg sugiere que, a niveles subatómicos, el comportamiento de las partículas no se puede predecir con certeza absoluta, sino solo en términos de probabilidades. Pero, desde otras perspectivas, "el Universo cuántico es más determinista que uno clásico, proporcionando explicaciones más sólidas y mejores predicciones".7, 11
En la explicación del comportamiento humano, por lo tanto, resulta arriesgado evocar la teoría cuántica y sus implicaciones para defender el libre albedrío. Si no cabe descartar que el universo cuántico sea fuertemente determinista, incluso en términos a los que el paradigma clásico no podía aspirar, no habrían existido más alternativas para hacer el Universo que las que lo han llevado a lo que es.7, 8
Las dificultades conceptuales del determinismo se plantean en un proceso análogo al seguido en el debate académico para establecer un criterio claro de demarcación científica. La comunidad experta enfatiza en casi cualquier dominio disciplinar la importancia de la pluralidad metodológica y la tolerancia epistemológica, siempre y cuando se mantengan algunos filtros escépticos de tipo práctico como el resultante de la revisión por pares, la replicabilidad de los resultados o la transparencia en las herramientas y metodologías utilizadas. Se trata de criterios prácticos para evaluar la validez científica, más que requisitos de falsabilidad teórica. Pero suficientes para excluir como pseudociencia muchos enunciados y enfoques teóricos, incluso en los paradigmas más tolerantes a la diversidad.12, 13
Una distinción neta entre ciencia y no-ciencia puede ser viable en la práctica, pero resultar controvertida en la teoría. El criterio popperiano de falsabilidad —según el cual una teoría es científica solo si se puede concebir una observación o un experimento que la refute— es pertinente y útil para distinguir, por ejemplo, entre productos de utilidad médica y pseudoterapias; pero su aplicación en ciencias sociales y en ámbitos de la cultura donde coexisten discursos descriptivos, explicativos o de naturaleza prospectiva puede resultar controvertida e ineficaz. Y puede suponer un desafío extraordinario en cualquier intento de probar empíricamente núcleos teóricos de gran complejidad como los que subyacen a las ciencias del clima o en campos como la teoría de cuerdas.14
Cuando un colectivo de investigadores en física teórica considera que su campo debe estar exento del requisito de comprobación experimental, proponiendo un criterio alternativo de "elegancia explicativa" como requisito válido para su aceptación, hace algo más que distanciarse de una tradición filosófica ligada al empirismo: con ello altera el marco común de reglas consensuadas sobre calidad metodológica en la investigación científica y degrada su propio terreno profesional "a una tierra de nadie entre las matemáticas, la física y la filosofía que no responde realmente a las exigencias de ninguna de ellas." Abriendo la puerta, además, a especulaciones infundadas sobre multiversos incomunidados entre sí; teoría de cuerdas y membranas —sobre entidades fundamentales inobservables solo descritas por idealizaciones geométricas—, observadores duplicados en universos paralelos y ciencia post-empírica.18, 19
Estas reflexiones introductorias bastan para constatar que el conocimiento científico tiene sus límites, teóricos y prácticos. Como los tiene la epistemología de las ciencias particulares (incluso en sus componentes estrictamente lógicos o formales) y cualquier teoría de propósito más general que las incorpore como objeto de estudio. La investigación científica se desarrolla dentro de ciertos marcos conceptuales que operan con un grado razonable de eficacia hasta que se acumulan casos y problemas de difícil explicación, y que demandan nuevos enfoques y herramientas metodológicas, en lugar de justificar una rebaja en los criterios de racionalidad y calidad de la investigación.12
De forma similar, la epistemología evoluciona en interacción con otras disciplinas que a menudo plantean desafíos teóricos y prácticos para la aplicación de nociones tan básicas como las de causalidad y determinación. Las dificultades, sin embargo, no deberían difuminar el papel de los múltiples criterios de calidad epistémica bien consolidados y el valor de los modelos o resultados de investigación con los que resultan compatibles. La ciencia no es la única respuesta a la necesidad humana de comprender el mundo. Pero, asumiendo que ninguna de sus pretensiones está exenta de justificación, la forma en que lo hace se puede distinguir razonablemente de la religión, la mitología o el sentido común.15, 16
1. Gordin, M. D. (2023). The demarcation problem. In Pseudoscience: A Very Short Introduction (pp. 1–15). Oxford University Press. https://doi.org/10.1093/actrade/9780190944421.003.0001.
2. Veánse las entradas "Determinismo científico" (https://es.wikipedia.org/wiki/Determinismo_cient%C3%ADfico) y "Causalidad - Filosofía" (https://es.wikipedia.org/wiki/Causalidad_(filosof%C3%ADa)) en Wikipedia, suficientes para el objetivo de esta introducción.
3. Véase el desarrollo adicional en la sección a la que remite el enlace: https://es.wikipedia.org/wiki/Causalidad_(filosof%C3%ADa)#Epistemolog%C3%ADa.
4. Veáse la entrada "Explicación científica" (https://es.wikipedia.org/wiki/Explicaci%C3%B3n_cient%C3%ADfica).
5. Stanford, Kyle (2021). "Underdetermination of Scientific Theory", The Stanford Encyclopedia of Philosophy (Spring 2021 Edition), Edward N. Zalta (ed.), https://plato.stanford.edu/archives/spr2021/entries/scientific-underdetermination/.
6. Hoefer, Carl (2021). "Causal Determinism", The Stanford Encyclopedia of Philosophy (Spring 2021 Edition), Edward N. Zalta (ed.), en https://plato.stanford.edu/archives/spr2021/entries/determinism-causal/.
7. Chen, E. K. (2023). Does quantum theory imply the entire Universe is preordained? Nature, 624(7992), 513–515. https://doi.org/10.1038/d41586-023-04024-z.
8. Gea-Banacloche, Julio. 2022. “Causality, Determinism, and Physics”. American Journal of Physics 90 (11): 809–16. https://doi.org/10.1119/5.0087017.
9. Del Santo, F. (2021). Indeterminism, Causality and Information: Has Physics Ever Been Deterministic? (pp. 63–79). https://doi.org/10.1007/978-3-030-70354-7_5.
10. Del Santo, Flavio, y Nicolas Gisin (2019). “Physics without Determinism: Alternative Interpretations of Classical Physics”. Physical Review. A 100 (6). https://doi.org/10.1103/physreva.100.062107.
11. Heisenberg, Werner (2000, orig. 1958). Physics and Philosophy: The Revolution in Modern Science. Londres, Inglaterra: Penguin Classics.
12. Kuhn, Thomas S. (1962). The Structure of Scientific Revolutions. Chicago: University of Chicago Press.
13. Popper, Karl (1959). The Logic of Scientific Discovery. Londres: Routledge.
14. Coady, D., & Corry, R. (2013). The climate change debate: an epistemic and ethical enquiry. Palgrave Macmillan. Ch. 1-2.
15. Rosenberg, Alex. 2005. Philosophy of science: A contemporary introduction. 2a ed. Londres, Inglaterra: Routledge. Ch. 2-3. https://doi.org/10.4324/9780203087060.
16. Portides, Demetris (2008). "Models" (ch. 36), in Martin Curd y Stathis Psillos (eds., 2008). The Routledge companion to philosophy of science. Londres, Routledge. https://doi.org/10.4324/9780203000502.
17. van Strien, M. (2021). Was physics ever deterministic? The historical basis of determinism and the image of classical physics. The European Physical Journal H, 46(1), 8. https://doi.org/10.1140/epjh/s13129-021-00012-x.
18. Ellis, G., & Silk, J. (2014). Scientific method: Defend the integrity of physics. Nature, 516(7531), 321–323. https://doi.org/10.1038/516321a.
19. Smolin, Lee (2006). The trouble with physics: The rise of string theory, the fall of a science, and what comes next. Houghton Mifflin.
Texto 1 (sobre causalidad y determinismo)
«What of the status of causality and determinism in quantum mechanics? Probably the interest of the layman and the humanist in this book depends most on its answer to this question.
If this answer is to be understood, the reader must pay particular attention to Heisenberg's description of (a) the aforementioned definition of state by recourse to the concept of probability and (b) the Schrodinger time-equation. The reader must also make sure, and this is the most difficult task of all, that the meaning of the words "causality" and "determinism" in his mind when he asks the above question is identical with the meaning these words have in Heisenberg's mind when he specifies the answer. Otherwise, Heisenberg will be answering a different question from the one the reader is asking and a complete misunderstanding upon the reader's part will occur.
The situation is further complicated by the fact that modern physics permits the concept of causality to have two different, scientifically precise meanings, the one stronger than the other, and there is no agreement among physicists about which one of these two meanings the word "causality" is to be used to designate. Hence, some physicists and philosophers of science use the word to designate the stronger of the two meanings. There is evidence, at times at least, that this is Professor Heisenberg*s usage in this book. Other physicists and philosophers, including the writer of this Introduction, use the word "causality" to designate the weaker of the two meanings and the word "determinism" to designate the stronger meaning. When the former usage is followed, the words "causality" and "determinism" become synonymous. When the second usage is followed, every deterministic system is a causal system, but not every causal system is deterministic.»
- Northrop, "Introduction ", en W. Heisenberg (2000, orig. 1958). Physics and Philosophy: The Revolution in Modern Science. Londres, Inglaterra: Penguin Classics, pp. 10-11.
Texto 2 (sobre determinismo)
«What of determinism? Again, there is no agreed-upon convention among physicists and philosophers of science about how this word is to be used. It is in accord with the common-sense usage to identify it with the strongest possible causality. Let us, then, use the word "determinism" to denote only the stronger type of mechanical causation. Then I believe the careful reader of this book will get the following answer to his question: In Newtonian, Einsteinian and quantum mechanics, mechanical, rather than teleological, causality holds. This is why quantum physics is called quantum mechanics, rather than quantum teleologies. But, whereas causality in Newton's and Einstein's physics is of the stronger type and, hence, both mechanical and deterministic, in quantum mechanics it is of the weaker causal type and, hence, mechanical but not deterministic. From the latter fact it follows that if anywhere in this book Heisenberg uses the words "mechanical causality" in their stronger, deterministic meaning and the question be asked "Does mechanical causation in this stronger meaning hold in quantum mechanics?" then the answer has to be "No".
The situation is even more complicated, as the reader will find, than even these introductory distinctions between the different types of causation indicate. It is to be hoped, however, that this focusing of attention upon these different meanings will enable the reader to find his way through this exceptionally important book more easily than would otherwise be the case.
These distinctions should suffice, also, to enable one to grasp the tremendous philosophical significance of the introduction of the weaker type of mechanical causation into modern physics, which has occurred in quantum mechanics. Its significance consists in reconciling the concept of objective, and in this sense ontological, potentiality of Aristotelian physics with the concept of mechanical causation of modern physics.»
- Northrop, "Introduction ", en W. Heisenberg (2000, orig. 1958). Physics and Philosophy: The Revolution in Modern Science. Londres, Inglaterra: Penguin Classics, pp. 15-16.
Texto 3 (sobre determinismo estadístico)
«Statistical indeterminism — Having provided two examples of the way in which scientific results were somewhat zanily imported into the free will debate, I now pass to a longer-lived example that is far closer to the evolution of probability. There was a confused idea in circulation in the 1930s that quantum indeterminacy would provide room for free will. Statistical determinism is the exact opposite: when the laws of the world turn statistical, the elbow room for free will is diminished, if not eliminated.
The idea of law-like regularities in the ratios of birth and death is an old one, widely known after the publication, for example, of John Graunt's 1662 analysis of the London Bills of Mortality. What of regularities in the moral domain, where we appear concerned with the choices freely made by individuals? The eighteenth-century French economists were sure that there must be economic laws as rigid as Newton's celestial mechanics. It was increasingly understood that this must have something to do with probability, and it was foreseen that stable empirical frequencies would be essential to any study of law in the moral sciences. This became the popular wisdom of the intelligentsia. Thus by 1790 Madame de Stael noted the stability of divorce rates in certain Swiss cantons and inferred that these indicate laws in the moral realm.36 Yet any such reflections are patchy until there are systematic published data. Only in the 1820s did Paris and the department of Seine begin to publish statistics for the hospitals, suicides, crimes and so forth. In 1825 the French department of justice began its judicial statistics, counting and classifying kinds of crime and rates of conviction. Then began an avalanche of printed numbers. Before then, only Scandinavia had any systematic tabulations of social facts, and although the data collected by Lutheran pastors have proven a godsend for twentieth century historians of demography, their potential was hardly realized at the time. But after the 1820s Belgium, England and Wales, France, Holland, Scotland and the Italian and German states arose in a frenzy of counting and publishing numbers about the moral order: crime, suicide, marriage, divorce, prostitution. [p. 468]
One of the most important books of the 1850s was Henry Thomas Buckle's History of Civilization in England [London, 1857], intended as a mighty introduction to the history of civilization which he never lived to complete. (...) I cannot excel the 11th edition of the Encyclopedia Brittanica in summarizing one of the three chief theses in its entry on Buckle:'While the theological doctrine of predestination is a barren hypothesis beyond the province of knowledge, and the metaphysical doctrine of free will rests on an erroneous belief in the infallibility of consciousness, it is proved by science, and especially by statistics, that human actions are governed by laws as fixed and regular as those which rule the physical world.'» [p. 471]
- Hacking, (1983). Nineteenth Century Cracks in the Concept of Determinism. Journal of the History of Ideas, 44, 455: 468, 471.
Véanse en el aptdo. "Definiciones" y en el esquema.
La institucionalización de la investigación y el conocimiento científico es un fenómeno resultante de la gestión, regulación y protocolización de estas actividades dentro de estructuras organizativas específicas como las universidades, los laboratorios de investigación y los organismos gubernamentales, en colaboración frecuente con instancias privadas. Este proceso ha contribuido positivamente al avance del conocimiento humano abordando problemas complejos con el nivel adecuado de recursos técnicos y humanos, aunque ha tenido algunas contrapartidas indeseables en el desarrollo de la ciencia, en los incentivos y cultura de trabajo asociada, y en la consolidación de perfiles profesionales hiperespecializados, a menudo enfrentados en esquemas asimétricos de competición permanente. Sus ventajas, no obstante, han sido múltiples:
Expansión y especialización: La institucionalización ha permitido una expansión sin precedentes del conocimiento científico, facilitando la especialización, la profundización en el estudio de problemas complejos y la emergencia de campos disciplinares específicos. En cuanto actividad institucionalizada, la investigación científica genera un sistema de roles y normas útiles para promover el desarrollo acumulativo y sistemático de conocimiento. Esta estructura ha permitido el florecimiento de disciplinas especializadas, con instalaciones y equipamiento costoso adaptado a sus necesidades, promoviendo una mayor precisión, orientación a resultados y profundidad en la investigación científica.1
Acceso y participación en la generación de conocimiento: La concentración del conocimiento científico en instituciones de cierto perfil ha supuesto para muchos actores cualificados obstáculos en el acceso, participación, y distribución equitativa de las oportunidades y financiación para generar conocimiento. La concentración de recursos humanos y científicos en ciertas instalaciones e instituciones tiene, entre otras ventajas, la ubicación de equipamiento costoso, recursos de explotación o mantenimiento asociado y personal altamente especializado en un solo lugar, aprovechando sinergias y talento para un amplio rango de tareas y procedimientos. Esto puede favorecer la colaboración y el intercambio de experiencias necesario para acelerar la obtención de resultados y el empleo de enfoques o técnicas de vanguardia en la investigación, reduciendo el coste del mantenimiento de las instalaciones o compartiéndolo entre varios grupos de investigación. Se favorece también la creación de nodos y sectores de actividad especializada, más competitivos y aptos para garantizar la transferencia de conocimientos al entorno social.
Entre sus inconvenientes es preciso considerar los obstáculos para la generación de conocimiento abierto, cuando solo un grupo reducido de organizaciones y países tiene acceso preferente o exclusivo a los recursos, instalaciones y resultados obtenidos. No es descartable que esta dinámica derive en posiciones de monopolio del saber en ciertas áreas, y en falta de transparencia sobre procedimientos o técnicas dominados por unas pocas instituciones líderes, con capacidad para establecer altos costes en los procesos de transferencia y aplicar de forma abusiva el sistema de patentes para proteger sus innovaciones.2, 3
La concentración de talento y tecnología tiene sus ventajas e inconvenientes, aunque no para todos los actores por igual. Moverse fuera de las redes dominantes de generación y transferencia de conocimiento conlleva pérdida de oportunidades de innovación, en procesos que pueden acusar el impacto de esquemas de liderazgo y cambios en el contexto social determinantes para la atracción de talento vinculado a los programas de I+D. Estos inconvenientes no cuestionan ciertos esquemas de concentración de recursos; solo refuerzan la importancia de operar con ecosistemas diversos, que incorporen nodos de excelencia bien conectados globalmente con otros centros de conocimiento, para contrarrestar la hegemonía de unas pocas instituciones académicas y la marginación de conocimientos generados en otros países (o exclusión en la toma de decisiones).3, 4
La perspectiva etnográfica sobre "la vida en el laboratorio" que adoptaron autores como Bruno Latour y Steve Woolgar suscitó hace unas décadas cierto interés sobre cómo se construyen los hechos científicos.5 Es obvio que la mera observación empírica no produce hechos científicos (al menos, no sin manipular ciertas herramientas y materiales según protocolos y criterios establecidos). La cantidad y calidad del trabajo que precede a la identificación de un dominio de problemas relevante para el estudio detallado de alguno de sus componentes queda normalmente fuera de foco en la perspectiva antropológica sobre lo que se hace en los laboratorios, puesto que la existencia de estos responde a elementos, estudios y necesidades de naturaleza teórica o práctica que resultan inexplicables desde enfoques centrados en la dinámica interna del laboratorio. La complejidad de los procesos sociales e interpretativos que lleva al establecimiento de nuevos hechos científicos o consolida modelos y enfoques teóricos como instancias de conocimiento bien establecido se muestra en toda la red de nodos de actividad y comunicación formal e informal de la comunidad científica, no solo en determinadas instalaciones de vanguardia o entre grupos con liderazgo científico internacionalmente reconocido.
Los enfoques etnográficos de las prácticas científicas pueden ser útiles para precisar cómo cierto tipo de interacciones en determinadas instituciones pueden dar cabida a decisiones subjetivas, negociaciones, intereses y contingencias históricas susceptibles de condicionar la producción de conocimiento con factores extra-epistémicos (obtención de recursos, rivalidad entre grupos, reputación, intereses de la industria camuflados en el caudal de publicaciones científicas, pertenencia a escuelas ideológicas o grupos de poder, etc.).6, 7
Sin embargo, la perspectiva sociológica tiene la contrapartida de reducir a la irrelevancia el componente intelectual y los esfuerzos de clarificación epistémica subyacentes a la investigación científica, sin los cuales la actividad de laboratorio difícilmente podría diferenciarse de la que se realiza en cualquier sector de actividad industrial, o en un gabinete de militantes durante el periodo electoral. La ingenuidad sobre el carácter aséptico y neutral de las fuentes de financiación de la investigación científica desapareció durante el periodo de entreguerras y el desarrollo posterior de la big science. Una visión internalista y aséptica de la ciencia, cuyos resultados se explican únicamente desde la lógica, el método científico y los criterios epistémicos aplicados, ignora el peso que tienen otros condicionantes sociales, culturales y materiales en la producción de conocimiento. Aspectos que, de forma dramática, pudieron constatarse con el hundimiento de la financiación pública para investigación en el periodo de la Gran Recesión o durante la carrera para desarrollar vacunas eficaces contra la pandemia de COVID-19.8
Por lo tanto, cuando se trata de resolver problemas complejos para satisfacer necesidades sociales apremiantes, importan sobre todo los elementos de evidencia científica, consistencia teórica y capacidad tecnológica que pueden aportarse con expectativas razonables de no quedar empantanados en el juego de intereses, modas, opiniones y preferencias ideológicas de los actores concernidos. A diferencia de lo que ocurre en el debate público, la comunidad experta tiene un largo historial de adoptar posiciones de consenso sobre temas y problemas de extraordinaria complejidad (en salud pública, protección del medio natural y la calidad del aire, en programas de erradicación del hambre, prevención de desastres naturales, etc.), por razones ligadas fundamentalmente a la lógica del conocimiento y apoyada en datos y criterios robustos de interpretación de los escenarios de riesgo (visión internalista).9, 10, 11
La estandarización de enfoques, so pretexto de mejorar el rigor y la calidad de la investigación, puede inducir dinámicas de homogeneización susceptibles de ahuyentar a investigadores con talento creativo y marginar a grupos dispuestos a explorar metodologías alternativas en dominios de problemas disputados. El efecto de la estandarización metodológica en ciencias sociales puede alimentar una falsa impresión de objetividad, sobre resultados que bajo otros enfoques resultarían simplificadores, reduccionistas o irrelevantes, cuando no claros ejemplos de colonización cultural.12
El cuasimonopolio que ejercen de facto ciertas empresas que controlan las grandes plataformas de bases de datos de publicaciones científicas (incluyendo una gran opacidad sobre los algoritmos de indexación, estimación de impacto, métricas y recomendaciones sesgadas en la búsqueda de resultados) genera un contexto favorable a prácticas abusivas y extractivas, con un impacto a gran escala en la calidad de los resultados de investigación y en la promoción vertiginosa de ciertos perfiles profesionales, grupos editoriales y campos disciplinares.13, 14, 15
En otros ámbitos de conocimiento, el papel de actores privados como financiadores sería impensable si existiera la más remota posibilidad de que los resultados resultaran de algún modo incómodos o contrarios a sus intereses.16 Para contrarrestar eventuales sesgos de entidades privadas, las fuentes de financiación gubernamentales pueden aportar un mayor espacio de independencia y creatividad; pero, en contextos de escasez o con esquemas de liderazgo fuertemente ideologizados, también los canales públicos pueden manipularse en función de prioridades efímeras y en detrimento de la investigación de calidad, guiada por la curiosidad científica.
El lucrativo mercado de las publicaciones científicas indexadas en bases de datos de unas pocas empresas privadas ha generado un floreciente mercado de productos culturales —la Nueva Economía del Conocimiento— en las que las empresas que más beneficio obtienen son las que menos han contribuido al trabajo investigador de base, a la financiación de los medios necesarios para la obtención de resultados, a la evaluación de los mismos y a la formación del personal altamente especializado que los produce. Su papel consiste en servir de intermediarios con ánimo de lucro en la difusión, absorbiendo porcentajes crecientes del presupuesto destinado a la I+D por las instituciones y grupos dedicados a la investigación.17
Sea al inicio, en medio o al final de la cadena de producción y difusión, la presencia de actores privados con ánimo de lucro termina contaminando los objetivos y prioridades de la investigación desarrollada en contexto académico. El conflicto de intereses en las instituciones científicas no es solo una cuestión de ética personal, circunscrita a la esfera de las decisiones individuales de quienes se dedican a la investigación. Es un problema de cultura y sesgo institucional, que genera estructuras estables de producción de ignorancia (privatizando resultados y hallazgos que deberían ser públicos cuanto antes lo permitan las metodologías y protocolos de investigación, en lugar de ser puestos bajo plataformas de pago).18
Cuestión aparte, aunque por efecto de una dinámica similar de incentivos institucionales, sería la proliferación de casos de científicos cuya trayectoria de publicaciones e impacto de estas aumenta exponencialmente como resultado de vinculaciones simultáneas con instituciones investigadoras en Arabia Saudí, China u otros países (previo pago de cantidades significativas, naturalmente). O mediante la participación en congresos y otros eventos que incluyen la garantía de publicar los propios trabajos en ciertas revistas, con el respaldo de empresas y laboratorios que aseguran el posicionamiento de los papers correspondientes.19, 20, 21
El tipo de intermediarios inevitables en los procesos de transferencia condiciona, por supuesto, la autonomía de las instituciones y grupos dedicados a la investigación científica, incluyendo sus prioridades, intereses comerciales y agenda política. Pero la explotación comercial de los resultados de las investigaciones desarrolladas en las universidades y laboratorios públicos con financiación estatal se ha potenciado con el surgimiento de spin-offs y start-ups (es decir, empresas constituidas en el interior de las propias universidades, con volumen y capacidad de impacto económico a escala regional). La importancia de estos mecanismos de transferencia no excluye el análisis crítico de sus ciclos y condiciones de actividad, puesto que el número de las que subsisten más allá del periodo inicial de subvenciones y apoyo financiero público es ciertamente reducido, con el sector de la biotecnología y la fabricación industrial como excepción.22, 23, 24, 25
1. Merton, Robert K. (1973). The Sociology of Science: Theoretical and Empirical Investigations. Chicago: University of Chicago Press.
2. de Sousa Santos, B. (2009). Una Epistemología Del Sur: La Reinvención Del Conocimiento y La Emancipación Social. Siglo XXI.
3. Meneses, M. P. y Bidaseca, K. (2018). Epistemologías del Sur. Centro De Estudios Sociais, Universidade De Coimbra. Clacso. https://biblioteca.clacso.edu.ar/clacso/se/20181124092336/Epistemologias_del_sur_2018.pdf.
4. Bonilla, D. (2019). Geopolítica del Conocimiento y Decolonialidad: ¿Está el eurocentrismo puesto a prueba? El Ágora USB, 19(1), 149–169. https://doi.org/10.21500/16578031.4125.
5. Latour, Bruno, y Steve Woolgar (1986). Laboratory Life: The Construction of Scientific Facts. Editado por Jonas Salk. Princeton, NJ: Princeton University Press.
6. Sismondo, S. (2021). Epistemic Corruption, the Pharmaceutical Industry, and the Body of Medical Science. Frontiers in Research Metrics and Analytics, 6. https://doi.org/10.3389/frma.2021.614013.
7. Mizumoto, Masaharu, Jonardon Ganeri, y Cliff Goddard, eds. (2022). Ethno-Epistemology: New Directions for Global Epistemology. Londres, Inglaterra: Routledge. Chap. 1, 9.
8. Gobo, G., & Sena, B. (2022). Questioning and Disputing Vaccination Policies. Scientists and Experts in the Italian Public Debate. Bulletin of Science, Technology & Society, 42(1–2), 25–38. https://doi.org/10.1177/02704676221080928.
9. Cook, J. et al. (2013). Quantifying the consensus on anthropogenic global warming in the scientific literature. Environmental Research Letters, 8(2), 024024. https://doi.org/10.1088/1748-9326/8/2/024024.
10. Cook, J., Oreskes, N. et al. (2016). Consensus on consensus: a synthesis of consensus estimates on human-caused global warming. Environmental Research Letters, 11(4), 048002. https://doi.org/10.1088/1748-9326/11/4/048002.
11. Larson, H. J. et al. (2016). The State of Vaccine Confidence 2016: Global Insights Through a 67-Country Survey. EBioMedicine, 12, 295–301. https://doi.org/10.1016/j.ebiom.2016.08.042.
12. Holmquist, C., & Sundin, E. (2010). The suicide of the social sciences: causes and effects. Innovation: The European Journal of Social Science Research, 23(1), 13–23. https://doi.org/10.1080/13511611003791141.
13. Larivière, V., Haustein, S., & Mongeon, P. (2015). The Oligopoly of Academic Publishers in the Digital Era. PLOS ONE, 10(6), e0127502. https://doi.org/10.1371/journal.pone.0127502.
14. McKiernan, E. C. et al. (2019). Use of the Journal Impact Factor in academic review, promotion, and tenure evaluations. ELife, 8. https://doi.org/10.7554/eLife.47338.
15. Buranyi, Stephen (2017). “Is the staggeringly profitable business of scientific publishing bad for science?” The guardian, el 27 de junio de 2017. https://www.theguardian.com/science/2017/jun/27/profitable-business-scientific-publishing-bad-for-science.
16. Mirowski, Philip (2011). Science-mart: Privatizing American science. Londres, Inglaterra: Harvard University Press.
17. Geschuhn, Kai (2018). “Max Planck Society Discontinues Agreement with Elsevier; Stands Firm with Projekt DEAL Negotiations”. Mpg.de. https://www.mpdl.mpg.de/en/505.
18. Mirowski, Philip (2011). "The New Production of Ignorance", Chap. 7, in Science-mart: Privatizing American science. Londres, Inglaterra: Harvard University Press, pp. 315-349.
19. Judson, Horace Freeland (2004). The Great Betrayal: Fraud in Science. Boston, MA, Estados Unidos de América: Houghton Mifflin.
20. Barrera, José Carlos Bermejo (2015). La tentación del rey Midas: Para una economía política del conocimiento. Siglo XXI de España Editores.
21. Lorite, Álvaro (15/07/2019). "Papers y más papers: las sombras en la industria de las publicaciones cientificas". https://www.elsaltodiario.com/universidad/papers-y-mas-papers-las-sombras-en-la-industria-de-las-publicaciones-cientificas.
22. Etzkowitz, H., & Leydesdorff, L. (2000). The dynamics of innovation: from National Systems and “Mode 2” to a Triple Helix of university–industry–government relations. Research Policy, 29(2), 109–123. https://doi.org/10.1016/S0048-7333(99)00055-4.
23. Rodeiro-Pazos, D. et al. (2021). Size and survival: An analysis of the university spin-offs. Technological Forecasting and Social Change, 171, 120953. https://doi.org/10.1016/j.techfore.2021.120953.
24. Jelfs, P., & Smith, H. L. (2022). A comparative study of the survival of university spin-off companies (USOs) in the post-industrial UK West Midlands region. Studies in Higher Education, 47(10), 2117–2126. https://doi.org/10.1080/03075079.2022.2122663.
25. Prokop, D., Huggins, R., & Bristow, G. (2019). The survival of academic spinoff companies: An empirical study of key determinants. International Small Business Journal: Researching Entrepreneurship, 37(5), 502–535. https://doi.org/10.1177/0266242619833540.
1. Las universidades y el CSIC acuerdan pagar 170 millones de euros a cuatro editoriales científicas
- Sánchez y D. Sánchez (29/01/2023). "Cuatro editoriales cobran 170 millones en cuatro años a las universidades españolas y el CSIC por leer y publicar artículos científicos." https://www.eldiario.es/sociedad/cuatro-editoriales-cobran-170-millones-cuatro-anos-universidades-espanolas-csic-leer-publicar-articulos-cientificos_1_9882268.html.
2. Un solo investigador firma 176 trabajos en un año
- Ansede (03/06/2023). Un científico que publica un estudio cada dos días muestra el lado más oscuro de la ciencia. https://elpais.com/ciencia/2023-06-03/un-cientifico-que-publica-un-estudio-cada-dos-dias-muestra-el-lado-mas-oscuro-de-la-ciencia.html.
3. Presión por publicar e inflación de papers
- Lorite (15/07/2019). "Papers y más papers: las sombras en la industria de las publicaciones cientificas". https://www.elsaltodiario.com/universidad/papers-y-mas-papers-las-sombras-en-la-industria-de-las-publicaciones-cientificas.
4. Científicos hiperprolíficos
- Ioannidis, Klavans, R., & Boyack, K. W. (2018). Thousands of scientists publish a paper every five days. Nature, 561(7722), 167–169. https://doi.org/10.1038/d41586-018-06185-8.
- Salomone (2/2/2019). Científicos que publican un estudio cada cinco días: ¿son realmente sus autores? https://www.agenciasinc.es/Reportajes/Cientificos-que-publican-un-estudio-cada-cinco-dias-son-realmente-sus-autores.
5. El cuasimonopolio de Elsevier
- Villarreal (21/02/2018). Elsevier paralizó una ley clave para proteger su millonario monopolio en España. https://www.elconfidencial.com/tecnologia/ciencia/2018-02-21/editoriales-elsevier-open-access-desactiva_1524848/.
6. Reacción contra las prácticas de Elservier
"The Cost of Knowledge", http://thecostofknowledge.com/index.php.
Manifiesto: "The Cost of Knowledge", https://gowers.files.wordpress.com/2012/02/elsevierstatementfinal.pdf.
"The Cost of Knowledge", en https://en.wikipedia.org/wiki/The_Cost_of_Knowledge.
La epistemología contemporánea se ha desarrollado en estrecha conexión con problemas, conceptos y enfoques desarrollados en diversos ámbitos de la ciencia. Por mencionar solo algunos ejemplos:
La visión sistémica de la vida: En las tres últimas décadas se ha reforzado la concepción sistémica de la vida, con mayor énfasis en la complejidad, las redes y los patrones de organización. Este enfoque obliga a familiarizarse con conceptos como la autopoiesis, las estructuras disipativas, las redes sociales y la evolución en términos sistémicos. Tiene su aplicación en el análisis de problemas de salud pública y en la gestión de crisis ecológicas o económicas globales.1
Física, naturaleza y espacio-tiempo: La física contemporánea ha sido también un contexto adecuado para explorar cuestiones fundamentales sobre el conocimiento, la realidad y la naturaleza del universo. Teorías como la relatividad y la mecánica cuántica han desafiado los conceptos tradicionales de tiempo, espacio y causalidad, con implicaciones que obligan a replantearse aspectos fundamentales sobre la naturaleza de lo real, la percepción del mundo y el alcance del conocimiento humano.2
Epistemología e intuiciones precríticas sobre el mundo: Las teorías científicas desafían las intuiciones de sentido común sobre el mundo y sus procesos, condicionando los debates sobre justificación, percepción, inducción y naturalización del conocimiento.3
Cosmología y conceptos fundamentales: La cosmología contemporánea obliga a manejarse con nuevos conceptos, distintos de los de la física moderna, como punto de partida para entender la nueva imagen y las dimensiones del universo. Sin ellos no pueden entenderse la naturaleza del espacio-tiempo ni las leyes fundamentales que rigen el cosmos, entre otros muchos aspectos clave para una comprensión informada del universo actual.4
Por lo tanto, la epistemología filosófica ha evolucionado en estrecha conexión con desarrollos teórico-conceptuales en ámbitos disciplinares como las ciencias de la vida y la física en todas sus ramas, desde la cosmología hasta las que se ocupan del microcosmos y sus leyes. Un contexto interdisciplinar en continuo desarrollo ha sido crucial para incorporar estudios de caso, elementos conceptuales y nuevas perspectivas sobre los límites del conocimiento humano y el alcance de nuestra comprensión del universo.5
1. Capra, F., & Luisi, P. L. (2014). The Systems View of Life. Cambridge University Press. https://doi.org/10.1017/CBO9780511895555.
2. Haroche, Serge, y J-M Raimond (2006). Exploring the Quantum: Atoms, Cavities, and Photons. Londres: Oxford University Press.
3. Carroll, Sean (2014). "Falsifiability. What Scientific Idea Is Ready For Retirement?" https://www.edge.org/response-detail/25322.
4. Caler Gallardo, J. L. et al. (2018). "Cosmología y conceptos fundamentales de la física contemporánea". http://hdl.handle.net/10481/51621.
5. Machamer, Peter, y Michael Silberstein (2002). The Blackwell Guide to the Philosophy of Science. Hoboken, NJ, Estados Unidos de América: Wiley-Blackwell. Chap. 3, 5, 9.
Texto 1 (Determinismo y aleatoriedad)
«La oposición entre determinismo y aleatoriedad ha sido rebatida ya dos veces. El estado atractor simple, que garantiza la posibilidad de prever de forma determinista el estado futuro de un sistema puede, como hemos explicado (pp. 161-167), ser interpretado como la resultante de comportamientos microscópicos representados ellos mismos como esencialmente aleatorios. Sin embargo, a la inversa, una descripción macroscópica en términos de ecuaciones diferenciales, que parezca encarnar el determinismo causal, ya que relaciona la variación del sistema en un momento dado con el estado del sistema en este momento, genera aquí un comportamiento observable de tipo aleatorio. Por consiguiente, a partir de ahora nuestras descripciones del mundo se organizarán en torno a los temas de estabilidad e inestabilidad y no a la oposición entre azar y necesidad.»
- Prigogine, I. Stengers (1979). La nueva alianza: metamorfosis de la ciencia. Alianza. Prefacio, p. 16.
Texto 2 (Irreversibilidad y organización)
«Hace ya cincuenta años, desde la aparición de la mecánica cuántica, la idea de la simplicidad de lo microscópico se había vuelto insostenible. Sabíamos que sólo teníamos acceso a los átomos y a las moléculas utilizando como intermediarios nuestros instrumentos, que son macroscópicos, y que nuestras teorías al respecto están determinadas intrínsecamente por dicha mediación. Sin embargo, en el contexto de la mecánica cuántica, dicho conocimiento era inexistente. Esto ha dejado de ser verdad hoy día. Hemos descubierto que la irreversibilidad juega un papel esencial en la naturaleza y se encuentra en el origen de muchos procesos de organización espontánea. La ciencia de los procesos irreversibles ha rehabilitado en el seno de la física la idea de una naturaleza creadora de estructuras activas y proliferantes. Por otra parte, ahora sabemos que tanto en la dinámica clásica o en lo que concierne al movimiento planetario, ha muerto el mítico diablillo omnisciente al que se suponía capaz de adivinar el pasado y el futuro a partir de una descripción instantánea. Nos encontramos en un mundo indiscutiblemente aleatorio, en un mundo en el que la reversibilidad y el determinismo son casos particulares y en el que la irreversibilidad y la indeterminación microscópicas son la regla.»
- Prigogine, I. Stengers (1979). La nueva alianza: metamorfosis de la ciencia. Alianza. Introducción, p. 38.
En la filosofía presocrática, physis (Φύσις) designa tanto el origen como el desarrollo de cualquier cosa o proceso. En el período sofista, el concepto de physis —aquello que tiene su razón de ser en sí mismo— se contrapone al de nomos —lo que es fruto de un acuerdo o convención—. Para Aristóteles, la physis es la causa inmanente de todo cambio, del reposo y del movimiento (Física, 192b 13 y ss.); la esencia de los seres que poseen en sí mismos el principio de su movimiento. Distingue así las cosas que son por physis, de las que son por technē (τέχνη), es decir, artificiales, derivadas de la actividad humana. Lo natural se rige por un principio inmanente de cambio ligado a su esencia (teleología); lo artificial es un mero artefacto sin actividad intrínseca.1
El modelo teleológico o finalista se mantuvo vigente como forma válida de explicación científica no cuestionada hasta el siglo XVII. Su abandono progresivo no se produce con el advenimiento de la ciencia moderna y el auge del sistema físico newtoniano, centrado en causas eficientes de tipo mecánico. De hecho, sobrevive hasta bien entrado el siglo XIX, cuando la biología evolucionista de Charles Darwin aporta conceptos, desarrollos teóricos y algunos elementos de evidencia empírica que hacen plausible la adaptación de las especies sin referencia a un plan preconcebido.2
Incluso ya en la segunda mitad del siglo XX, autores como Morton Beckner expresaban su incomodidad con el auge de los enfoques mecanicistas que consideraban la biología una extrapolación compleja de la física y la química, en un contexto de continuo avance de los enfoques reduccionistas. Por ello dedica en su obra The Biological Way of Thought (1959) un espacio considerable a los herederos modernos del vitalismo, los "biólogos organísmicos", para quienes "el todo es mayor que la suma de las partes". Su posición de fondo reflejaba la convicción ampliamente extendida de que la biología era una disciplina única y autónoma, que pese a depender de los datos fisicoquímicos requería sus propios modelos explicativos. Entre estos, asigna un lugar destacado a las explicaciones genéticas, historicistas y teleológicas (en campos como la taxonomía, la evolución y la teoría de la selección y la genética, para resolver problemas de clasificación, p. ej.), sin las cuales no veía posible aproximarse a la "verdad" biológica.3
A fines del siglo XIX, no obstante, el naturalismo y el método hipotético-deductivo habían consolidado el modelo newtoniano de causación eficiente como el único plenamente compatible con la actitud científica, relegando el finalismo al campo de la filosofía o la teología.4
Como llamativa excepción quedaría el ámbito de la cosmología, con obras como The Anthropic Cosmological Principle (de John Barrow y Frank J. Tipler, en 1986) que mantenían el supuesto de una configuración del universo no por azar, sino por diseño, tras un análisis de los pasos improbables necesarios para la aparición de vida inteligente.5, 6
La epistemología filosófica ha de tener en cuenta la peculiaridad de los ámbitos disciplinares en los que ciertos modelos se mantienen vigentes por largos periodos de tiempo, pese a su descarte en dominios muy activos de problemas donde la necesidad de refinamiento y evolución de las metodologías de trabajo no deja espacio para concesiones al historicismo. El paradigma explicativo mecanicista y antiteleológico en las ciencias naturales no estaba exento de debates y matices; pero quedó definitivamente consolidado a comienzos del siglo XIX, tras el programa de refundación de la termodinámica sobre bases probabilísticas y sin fines predeterminados que impulsó Boltzmann.7, 8, 9
El modelo mecanicista ha sido el marco explicativo dominante en la ciencia occidental desde el siglo XVII. Según este modelo, el universo funciona como una máquina, donde todos sus estados son causados por eventos anteriores. La naturaleza se rige por leyes deterministas, que permiten predecir el comportamiento futuro de un sistema si sus condiciones iniciales son bien conocidas.10, 11
El mecanicismo se asocia con ciertos principios básicos sobre la naturaleza y el conocimiento científico:
Entre los éxitos del paradigma mecanicista cabe destacar la explicación del movimiento de los planetas (la ley de la gravitación universal de Newton —dos cuerpos se atraen con una fuerza proporcional al producto de sus masas e inversamente proporcional al cuadrado de la distancia que los separa— permite explicar y predecir el movimiento de los planetas, las mareas, las órbitas de los satélites y muchos otros fenómenos gravitatorios) y su contribución a las bases de la termodinámica (su primer principio es la ley de conservación de la energía —según la cual la energía no se crea ni se destruye, sino que solo se transforma de una forma a otra— y permite explicar y predecir el comportamiento de los sistemas físicos, químicos y biológicos, así como la relación entre el trabajo, el calor y la potencia; otro campo de aplicación sería la teoría cinética de los gases —que describe el comportamiento de los gases como el resultado del movimiento aleatorio y colisiones de sus moléculas— y permite explicar y predecir las propiedades termodinámicas de los gases, como la presión, la temperatura, el volumen y la entropía).12, 13, 14, 15
Entre los ámbitos disciplinares en los que el modelo mecanicista produjo resultados notables se ha de incluir la teoría de la evolución por selección natural de Darwin, ya que describe el origen y la diversificación de las especies como el efecto de la variación genética y la adaptación al medio ambiente, y permite explicar y predecir la distribución, la morfología, la fisiología, el comportamiento y la historia de los seres vivos. Darwin aportó explicaciones convincentes del origen y la diversificación de las especies mediante las leyes del movimiento, la materia y la fuerza, aplicadas a las poblaciones de organismos que compiten por los recursos limitados, en una perspectiva claramente materialista, empírica y matemática de la naturaleza.16
Sin embargo, la teoría darwiniana de la evolución no puede esgrimirse como un aval incondicional para el modelo mecanicista, puesto que incluye elementos que refuerzan una comprensión no estática, uniforme y predecible de la naturaleza, sino más bien dinámica, diversa y de una complejidad difícilmente predecible. Con la introducción del concepto de variabilidad Darwin enfatiza que los organismos no son entidades fijas e inmutables, sino que cambian y se adaptan al medio ambiente. Y el concepto de selección natural implica que los organismos no son el resultado de un diseño o un propósito, sino de un proceso de supervivencia y reproducción específico, con continuidades y discontinuidades. Autoorganización, complejidad y emergencia son aspectos que exceden la comprensión de los organismos como máquinas que responden mecánicamente a causas materiales próximas, y que explican también la necesidad de combinar genética mendeliana —donde los procesos de mutación al azar son decisivos como fuente de variabilidad— y selección natural en un marco más general (la síntesis evolutiva).17, 18, 19
Las ciencias sociales no quedaron fuera del influjo del modelo mecanicista. El surgimiento de la sociología como ciencia orientada a explicar los procesos complejos que subyacen a la estructura de la sociedad humana se produce a mediados del siglo XIX, en un contexto de profundos cambios sociales, económicos y políticos ligados a la Revolución Industrial —que transformó las estructuras sociales tradicionales, originando nuevas clases sociales, problemas específicos del entorno urbano y desigualdades—, la Revolución Francesa —que cuestionó de raíz el orden social establecido— y el auge del positivismo —bajo el supuesto de que era posible el estudio científico de los fenómenos sociales utilizando métodos de observación y análisis similares a los empleados en las ciencias naturales—. Con el tiempo, la sociología ha ido ampliando sus herramientas metodológicas y modelos teóricos, desde enfoques más cercanos al positivismo (Auguste Comte, Karl Marx) y el darwinismo social (Herbert Spencer) hasta la sociología académica de enfoque interdisciplinar (Émile Durkheim) y los estudios antipositivistas centrados en la economía y la administración (Max Weber).20, 21, 22
En la biología y la sociología actual se utilizan metodologías cualitativas y cuantitativas (en biología de la conservación; o en el estudio de prácticas agrícolas y el papel del conocimiento tradicional sobre plantas y fauna local, p. ej.) así como estudios longitudinales para observar cambios que ocurren a lo largo de muchas generaciones. Ciertos inconvenientes (sesgo subjetivo y dificultad para generalizar los resultados con metodologías cualitativas, p. ej.) pueden resultar aceptables cuando se persigue identificar patrones y tendencias en los datos no numéricos. Aunque la perspectiva sociológica reconoce el papel de la subjetividad, la interpretación y la agencia humana en la configuración dinámica de lo social, persigue también aplicar metodologías y herramientas de utilidad prospectiva, con las que ciertos escenarios y tendencias resultan predecibles en aspectos esenciales.
Sin las restricciones impuestas por visiones ligadas a creencias religiosas o metafísicas de la historia humana, las metodologías compatibles con aspectos centrales del modelo mecanicista (funcionalismo, estructuralismo, teoría del conflicto, análisis de redes, etc.) han tenido una influencia notable en filosofía de la ciencia, en la ética de la investigación y en la noción de progreso científico, reforzando el valor del análisis del contexto donde la investigación se produce, además de la observación y la experimentación para la formulación de teorías consistentes basadas en patrones y conjuntos de datos.23, 24
Los desarrollos de la física desde finales del siglo XIX, especialmente a través de la teoría de la relatividad, la mecánica cuántica, y la teoría del caos, han desafiado y enriquecido la epistemología, ofreciendo nuevas perspectivas sobre conceptos fundamentales como el tiempo, el espacio, la causalidad y la probabilidad.
Las contribuciones de Albert Einstein en 1905 a la teoría de la relatividad transformaron radicalmente la concepción del espacio y el tiempo, demostrando que estas no son entidades absolutas sino relativas al observador. En la teoría de la relatividad especial —aplicable en el caso particular en el que la curvatura del espacio-tiempo producida por acción de la gravedad se puede ignorar—, Einstein, Lorentz y Minkowski, entre otros, unificaron los conceptos de espacio y tiempo, proponiendo el modelo tetradimensional —donde tres dimensiones corresponden al espacio (ancho, largo, profundidad) y una al tiempo—. El espacio-tiempo se curva en presencia de masa y energía, y esta curvatura es lo que experimentamos como gravedad. Aplicado al sistema Tierra, esta curva el espacio-tiempo a su alrededor, y esa curvatura mantiene a la Luna en órbita.
La unificación del espacio y el tiempo en un mismo continuo transformó la comprensión del universo y las leyes de la física, posibilitando la predicción de nuevos fenómenos —la dilatación del tiempo en un campo gravitatorio fuerte, p. ej., donde el tiempo transcurre más lentamente— y la contracción del espacio —con velocidades cercanas a la de la luz, los objetos parecen más cortos en la dirección del movimiento—. El carácter revolucionario de la relatividad especial relegó la noción newtoniana de tiempo absoluto e introdujo conceptos como la invariabilidad en la velocidad de la luz, la dilatación del tiempo, la contracción de la longitud y la equivalencia entre masa y energía.
El descubrimiento tuvo implicaciones epistemológicas notables, puesto que cuestionaba la creencia en una realidad objetiva independiente del acto y los instrumentos de observación, y enfatizaba el papel de la interrelación entre el observador y lo observado como factor configurador de nuestra percepción de la realidad y de la imagen general del universo. Sin embargo, la idea de que al medir se inicia un proceso indeterminable a priori (azar), con distintas probabilidades de medir distintos resultados, resultó controvertida para el propio Einstein y otros colegas, incluidos filósofos y epistemólogos.
Entre las aportaciones de la mecánica cuántica (formulada por Planck, Heisenberg y Schrödinger) cabe destacar el principio de incertidumbre formulado por Heisenberg en 1927, según el cual no pueden conocerse con precisión determinados pares de magnitudes físicas observables y complementarias (es imposible determinar simultáneamente la posición y la velocidad de una partícula con precisión absoluta, por ejemplo). Entre otras implicaciones, resulta incompatible con la idea de determinismo absoluto (una medida de la posición perturbaría al momento lineal o viceversa, lo que introduce un límite fundamental para obtener mediciones precisas) y refuerza la comprensión del universo como un sistema cuyos eventos en el nivel cuántico responden a esquemas intrínsecamente probabilísticos (aunque no por ello menos deterministas).26
La interpretación de Copenhague del problema de la medida es la interpretación tradicional de la mecánica cuántica (atribuida a Niels Bohr y al grupo de físicos con los que colaboraba en Copenhague, hacia 1927, y reflejada en la mayoría de los manuales), asume el principio de incertidumbre y el principio de complementariedad de las descripciones ondulatoria y corpuscular —según el cual las descripciones ondulatoria y corpuscular de la materia y la energía son dos aspectos complementarios de la misma realidad física—.27
Debe contrastarse con la interpretación estadística, según la cual un estado cuántico describe una regularidad estadística, siendo explicables los diferentes resultados de la medida de un evento observable por factores estocásticos o fluctuaciones debidas al entorno (e inobservables). La electrodinámica estadística, por ejemplo, se utiliza para estudiar cómo las interacciones entre partículas cargadas y campos electromagnéticos influyen en el comportamiento colectivo de sistemas macroscópicos, considerando aspectos como la distribución de energía, la temperatura y las propiedades termodinámicas. Permite analizar fenómenos emergentes y propiedades colectivas que surgen de la interacción entre electrones y campos electromagnéticos. La electrodinámica cuántica (QED), que describe la interacción entre radiación (fotones) y fermiones cargados (como electrones), es fundamental para comprender fenómenos cuánticos a nivel subatómico, incluido el comportamiento de los electrones en presencia de campos electromagnéticos. La QED permite explicar fenómenos como la emisión y absorción de fotones por parte de los electrones, así como la influencia del campo electromagnético en sus propiedades. Ha sido verificada experimentalmente con gran precisión en una amplia gama de fenómenos y resulta esencial para comprender la estructura de los átomos, las moléculas y la materia en general.27, 28
Las aportaciones de matemáticos y teóricos como Edward Lorenz y Benoît Mandelbrot dieron plausibilidad a la teoría del caos. Lorenz destacó el interés de ciertos sistemas caóticos, muy sensibles a las condiciones iniciales, y proporcionó conceptos como el de atractor para explicar su dinámica. Mandelbrot introdujo el concepto de fractal —un patrón geométrico irregular que se repite a diferentes escalas—, demostrando las propiedades matemáticas únicas de los fractales que se encuentran en la naturaleza y en los sistemas caóticos.29
Estas aportaciones han sido decisivas para comprender la complejidad inherente a todo intento de predecir con precisión el comportamiento a largo plazo incluso de sistemas fuertemente deterministas, con gran influencia en los debates epistemológicos sobre la naturaleza de la realidad accesible al conocimiento y la importancia de la probabilidad y la incertidumbre en nuestra comprensión del mundo. Si la explicación causal de fenómenos en sistemas complejos como la meteorología supone un desafío extraordinario, las limitaciones epistémicas son incluso mayores en otros contextos de gran complejidad como los sistemas sociales.30
Conviene recordar que ciertos elementos de la teoría de la relatividad y la mecánica cuántica se aducen de manera recurrente para justificar puntos de vista pseudocientíficos o discursos sin base teórica sobre la irrelevancia de los criterios de demarcación. La naturaleza conceptualmente compleja y contraintuitiva de algunas ideas y conceptos en tales dominios los hace susceptibles de malinterpretaciones y simplificaciones excesivas, abonando el tipo de confusión que legitima a partidarios de la pseudociencia y las pseudoterapias a reivindicar puntos de vista teóricos carentes de soporte empírico, o incompatibles con conocimiento teórico bien establecido. No debe menospreciarse su efecto en el debate público. Las dificultades de comprensión de temas complejos y con graves implicaciones para la economía personal o la seguridad de un país se agravan cuando se tergiversan aspectos esenciales para adaptarlos a narrativas de conveniencia, aunque científicamente infundadas.31, 32, 33, 34
La sociología ha tenido una influencia constatable en la epistemología y la filosofía de la ciencia, gracias a contribuciones específicas desde la sociología del conocimiento científico y a los estudios sobre ciencia, tecnología y sociedad (CTS). Estas áreas han contribuido a explicar cómo los factores sociales y culturales influyen en la práctica científica, en la selección de temas de investigación, en la consolidación de programas de estudio y capacitación profesional y en la aceptación de teorías científicas.
El modelo sociológico enfatiza el papel de las estructuras sociales, las instituciones y las interacciones sociales en la producción, distribución y validación del conocimiento, dejando fuera del análisis los componentes racionalistas típicos de la visión internalista de la ciencia. En sociología del conocimiento importa el contexto social ligado a la producción de saberes, que condiciona o moldea las creencias, valores y perspectivas individuales de quienes investigan y producen resultados científicos.
Entre otras implicaciones para la epistemología, proporciona elementos para una perspectiva crítica y contextualizada sobre cómo evoluciona el tratamiento de ciertos problemas en ciencia, las preferencias metodológicas entre colectivos de diferentes escuelas y los modos de validar el conocimiento entre diversas culturas científicas y entornos institucionales o profesionales involucrados en la investigación.
La consecuencia más radical de este modelo atañe a las dificultades para manejar nociones como la de verdad o conocimiento válido, puesto que son producto de interacciones sociales y negociaciones dentro de comunidades específicas (y la científica no sería una excepción). Si bien no resulta incompatible con prácticas bien establecidas y protocolos consensuados para validar el conocimiento en diferentes campos, este enfoque ha supuesto una reevaluación de la objetividad científica.
Entre las obras más influyentes es obligado mencionar La estructura de las revoluciones científicas, de Thomas S. Kuhn (1962), en la cual se cuestiona la noción de progreso lineal en ciencia y se proponen los conceptos de "paradigma" científico —conjunto de compromisos compartidos por una comunidad científica, que incluyen teorías, métodos, problemas y soluciones, en función de los cuales se definen lo que es la ciencia normal— y "cambio de paradigma" —una reestructuración radical del conocimiento científico, favorecida por la acumulación de anomalías no explicadas desde el paradigma vigente—. Los cambios de paradigma son susceptibles de análisis histórico o sociológico, para explicar los factores que contribuyen a transformar dominios de conocimiento donde se originan problemas que desafían los enfoques convencionales. Kuhn argumenta que la ciencia no avanza mediante una acumulación lineal de conocimientos, producto de un trabajo metódico en fase de ciencia normal, sino a través de revoluciones científicas desencadenadas en periodos de crisis, por la acumulación de anomalías dentro del paradigma dominante.35
El paradigma determina lo que cuenta como un problema o una solución legítimos, así como los métodos y los criterios para evaluarlos. La ciencia normal es la actividad de resolver problemas —teóricos o experimentales— gobernada por las reglas dentro de un paradigma. Cuando un paradigma no proporciona los medios adecuados para resolver los problemas que se plantean desde dentro, se inicia un proceso de búsqueda de alternativas hasta que es sustituido por otro incompatible con él (a esto lo llama inconmensurabilidad: el viejo paradigma y su alternativa no se pueden comparar objetivamente ni medir por un criterio común, puesto que implican visiones del mundo diferentes e incompatibles, que determinan lo que se considera real, relevante y racional). Un nuevo paradigma gana aceptación generalmente como resultado de logros explicativos excepcionales, o porque proporciona nuevos modos de investigar un aspecto de la naturaleza que interesa a la mayor parte de la comunidad científica. El cambio de paradigma cambia la visión del mundo, la percepción e interpretación de los fenómenos naturales, como ocurrió con la cosmología copernicana y con la aceptación del enfoque evolutivo en biología.36, 37
En respuesta a sus críticos, Kuhn matizó aspectos clave de su interpretación inicial sobre paradigmas y revoluciones científicas en La tensión esencial (1977), donde aclara que los cambios de paradigma no implican que teorías inconmensurables puedan ser igualmente válidas (relativismo). Su propósito era mostrar que la ciencia progresa en una tensión permanente entre tradición e innovación, entre consenso sobre reglas y metodologías y disenso, donde la imaginación, la creatividad y el inconformismo son aspectos importantes para la resolución de rompecabezas habituales en la fase normal de la investigación científica.
Otro representante destacado del modelo sociológico es Bruno Latour, quien comparte con Thomas Kuhn la idea de que la ciencia no se rige tanto por criterios de racionalidad como por negociaciones entre las redes de actores que definen lo que es científico y lo que no. En este proceso intervienen factores no solo cognitivos (valores, intereses, creencias tradicionales, instituciones, prácticas e instrumentos o artefactos, entre otros) ligados al contexto histórico y cultural en el que se desarrolla la investigación científica. Sus trabajos (Ciencia en acción, de 1987; y La vida en el laboratorio, con Steve Woolgar, de 1979) refuerzan una comprensión tanto social como técnica de los "hechos" científicos, minando la perspectiva objetivista de la ciencia y el papel exclusivo de ciertos actores en los descubrimientos científicos.
El modelo sociológico ha tenido un éxito incuestionable incorporando la perspectiva histórica, sociológica e institucional en el estudio de la ciencia y sus aplicaciones tecnológicas, inseparables de la dimensión política, económica y ética que los hace plausibles. Una perspectiva más pragmática y contextualista se ajusta mejor a la pluralidad y la variabilidad de las representaciones y metodologías científicas.38, 39, 40
Pero su contrapartida ha sido la relativización de la noción de verdad en la ciencia y de cualquier esquema rígido de correspondencia entre el lenguaje y la realidad (realismo directo o ingenuo). Actores negacionistas del cambio climático y grupos de escépticos sobre la evidencia histórica del holocausto han instrumentalizado con éxito diversos componentes del modelo sociológico de la ciencia, intentando reducirla a una actividad discursiva más, cuyas construcciones son tan provisionales y negociables como las producidas en cualquier otro dominio de la cultura o la política.41, 42
El marco relativista kuhniano y su noción controvertida de inconmensurabilidad ha servido de aval a planteamientos refractarios a cualquier esquema de evaluación racional comparativa. En el debate público han adquirido visibilidad puntos de vista pseudocientíficos o abiertamente irracionales, que se presentan en igualdad de condiciones y tan determinados socialmente —es decir, avalados sin más por sus compromisos ideológicos, morales o religiosos— como los planteamientos de base científico-técnica rigurosa que proporcionan expertos cualificados o las posiciones de consenso expresadas por asociaciones e instituciones científicas del máximo nivel.43
Por lo tanto, el modelo sociológico ha mostrado la complejidad de los procesos y actores que intervienen en la investigación científica, pero a costa de desdibujar la importancia del conocimiento experto y los criterios de demarcación entre pseudociencia y el tipo de prácticas, metodologías y protocolos de trabajo compatibles con la consolidación de conocimiento riguroso y el desarrollo de tecnologías eficaces y seguras.30, 44, 45, 46
El modelo unificador en epistemología de la ciencia es una propuesta que busca integrar las diferentes disciplinas del conocimiento humano, desde las ciencias naturales hasta las humanidades, mediante la búsqueda de principios y problemas comunes, además de conexiones lógicas y metodológicas. El objetivo es reconciliar y sintetizar las pluralidad de perspectivas y tradiciones epistemológicas (antirreduccionismo) para superar la fragmentación y la especialización del saber, mejorando los canales y espacios de colaboración interdisciplinar en el estudio y abordaje de problemas complejos. Desde este enfoque se reconoce que no existe una única forma correcta de entender la naturaleza de la ciencia y el conocimiento científico, por lo que resulta más productivo considerar una variedad de enfoques complementarios (al servicio de una comprensión más amplia y profunda de la realidad). La ciencia es considerada una actividad humana compleja, que involucra aspectos sociales, culturales e históricos y cuyo producto —el conocimiento científico— es provisional, sujeto a cambios y revisiones constantes. Precisamente por ello la diversidad de métodos y enfoques de la investigación científica es una fortaleza, no una debilidad.
El biólogo y naturalista estadounidense Edward O. Wilson propuso en su libro Consilience: The Unity of Knowledge (1998) un programa unificador (consiliente) cuyo objetivo era integrar diferentes disciplinas y enfoques para abordar cuestiones fundamentales sobre el conocimiento, el medioambiente, la naturaleza humana, la sociedad y la cultura. Wilson intentaba articular una visión holística con aportaciones de la biología, la psicología, la sociología y otras ciencias para comprender de manera más completa cómo se adquiere y se justifica el conocimiento y, sobre todo, cómo se pone al servicio de los grandes desafíos que condicionan el futuro de la humanidad y su coexistencia con otras especies en el planeta Tierra.47
Su enfoque busca superar las divisiones tradicionales entre las disciplinas académicas y promover una perspectiva interdisciplinar que permita abordar los problemas epistemológicos desde múltiples ángulos, integrando tanto aspectos biológicos como sociales en la comprensión del conocimiento humano. La visión unificadora de Wilson incluía, entre otros objetivos, enriquecer el estudio del conocimiento al considerar su relación con la evolución, el medio ambiente, la cultura y la sociedad en un marco integrado y coherente, superando barreras entre la cultura científica, las humanidades, las artes y las ciencias sociales que parecían insalvables en las últimas décadas del siglo XX.48
Wilson no consideró problemático asumir que la ciencia es el método más eficaz y fiable para organizar el pensamiento humano; pero sostenía que puede aplicarse a cualquier campo de estudio, incluyendo la ética, la estética, la religión y la política. Síntesis, consiliencia o unidad del saber no serían el producto de un enfoque anarquista del conocimiento como el propuesto por P. Feyerabend en su obra Contra el método (1970), sino el resultado de utilizar las mejores herramientas, aportaciones teóricas y metodologías que, desde la Ilustración, han contribuido al crecimiento exponencial del saber científico, aumentando la autonomía del ser humano y proporcionándole un conocimiento sin precedentes sobre los orígenes del Homo sapiens y su interdependencia con el resto de seres vivos.49
Otro autor que, de forma peculiar, ha contribuido al modelo unificador ha sido el filósofo y físico argentino Mario Bunge. En su obra La ciencia, su método y su filosofía (1960) propone una visión sistemática y realista de la ciencia, basada en el materialismo científico —sostiene que la realidad existe independientemente de la mente humana, y puede ser conocida mediante la observación y la experimentación— y el racionalismo crítico —la ciencia se rige por la lógica y la evidencia, y está sujeta a revisión y corrección permanente—. Bunge reivindica aspectos ligados a la naturaleza de la investigación científica según la describe Robert K. Merton en Social Theory and Social Structure (1957), afirmando que la ciencia es una actividad racional, objetiva y social, que se basa en la observación, la experimentación, la formulación de hipótesis y la disposición a ponerlas a prueba, articulando explicaciones que apelan a leyes (matemáticamente formulables) y teorías.
Según Merton, la investigación científica tiene rasgos peculiares que la distinguen de todas las demás actividades humanas. Se guía por la coherencia lógica y la confirmación empírica, pero también por aspectos institucionales —el ethos de la ciencia: universalismo (sus afirmaciones y métodos son impersonales y objetivos); comunismo (sus miembros comparten datos, teorías y métodos); desinterés (busca la verdad por la verdad); y escepticismo organizado (revisa los supuestos y resultados de la investigación a la luz de la lógica y de evidencia experimental). Bunge asume grosso modo esta caracterización, integrando cuatro niveles de la tarea científica (formal, factual, tecnológico y filosófico) y procurando establecer la conexión entre las ciencias (y de estas con la filosofía) mediante el uso de conceptos, métodos y valores comunes.50
Para Bunge, la principal amenaza al ethos de la ciencia surge de lo que denomina novísima sociología de la ciencia, representada por Thomas S. Kuhn, Paul K. Feyerabend, Bruno Latour y Steve Woolgar (destaca en particular la obra de estos últimos: Laboratory Life: The Social Construction of Scientific Facts, de 1979; y la actividad de la Science Studies Unit en la Universidad de Edimburgo). Se trata de un movimiento surgido a mediados de la década de 1960 como parte de la rebelión generalizada contra la ciencia y la técnica al servicio de intereses bélicos y del dominio de las élites político-financieras, con notable influencia en contexto académico gracias a corrientes filosóficas anticientíficas como la fenomenología, el existencialismo y la hermenéutica.51, 52
Aunque la posición de Bunge ha sido objeto de numerosas críticas (simplificadora de los problemas, dogmática, acríticamente positivista, insensible al pluralismo cultural, entre otras), su defensa frente a los críticos ha sido siempre robusta, informada y bien argumentada, lo que le ha consolidado como uno de los epistemólogos y filósofos más infuyentes del siglo XX. No duda en reconocer que casi todos los científicos admiten, explícita o tácitamente, que las teorías y sus constituyentes son construidos; pero enfatiza que sólo los subjetivistas sostienen que también los hechos mismos son construidos (e inadvertidamente avalan así múltiples propuestas pseudocientíficas y tratamientos fraudulentos). Su propuesta tiene interés para prácticamente cualquier campo disciplinar: el constructivismo gnoseológico es correcto; pero el ontológico es falso (puesto que si los hechos y las teorías fuesen lo mismo, no podríamos utilizar ningún hecho para poner a prueba las teorías, y ninguna teoría serviría para guiar la búsqueda nuevos hechos).51, 53, 56
Suele incluirse entre los modelos unificadores (por contraste con los modelos reduccionistas y positivistas) la teoría general de sistemas (TGS) desarrollada por el biólogo y filósofo autriaco Ludwig von Bertalanffy, junto con otros pensadores en la década de 1950. En lo esencial, la TGS busca comprender los fenómenos complejos como totalidades organizadas e integradas, en lugar de reducirlos a sus componentes individuales. El foco de estudio serán las interrelaciones y e interdependencia entre las partes de un sistema, así como la emergencia de propiedades y comportamientos que no pueden explicarse completamente por las partes individuales (lo que se asocia con el concepto de autopoisis, popularizado por autores como Francisco Varela y Humberto Maturana para explicar la organización de los sistemas vivos como redes cerradas de autoproducción de sus componentes).52, 54, 55
Von Bertalanffy estaba convencido de que los principios sistémicos pueden aplicarse a diversas disciplinas, desde la biología hasta las ciencias sociales. Diversas versiones de su teoría han tenido impacto en economía, biología, psicología, filosofía de la ciencia (Ervin Laszlo, 1932-2022), física cuántica (Fritjof Capra), termodinámica (Ilya Prigogine, 1917-2003) y sociología (Edgar Morin).
1. "Physis", Enciclopedia Herder. https://encyclopaedia.herdereditorial.com/wiki/Physis.
2. Mayr, Ernst (1988). Toward a New Philosophy of Biology: Observations of an Evolutionist. Londres, Inglaterra: Harvard University Press.
3. Beckner, Morton (1959). The Biological Way of Thought. Columbia University Press. Chap. 1, 3, 7, 8 y 9.
4. Hall, A. R. (1952). The scientific revolution 1500-1800: The formation of the modern scientific attitude. Beacon Press.
5. Barrow, John D., y Frank J. Tipler (1988). The Anthropic Cosmological Principle. Londres, Inglaterra: Oxford University Press.
6. Silk, J. (1986). Teleological Cosmology: The Anthropic Cosmological Principle. John D. Barrow and Frank J. Tipler. Clarendon (Oxford University Press), New York. Science, 232(4753), 1036–1037. https://doi.org/10.1126/science.232.4753.1036.
7. Boltzmann, L. (1877). Über die Beziehung zwischen dem zweiten Hauptsatze der mechanischen Wärmetheorie und der Wahrscheinlichkeitsrechnung resp. den Sätzen über das Wärmegleichgewicht. Wiener Berichte, 76, 373–435. Reprinted in F. Hasenöhrl (ed.), Wissenschaftliche Abhandlungen, Leipzig: J. A. Barth 1909, vol. 1902, pp. 1164–223.
8. Bricmont, J. (2001). Bayes, Boltzmann, and Bohm: probabilities in physics. In Bricmont, J., Ghirardi, G., & Dürr, D. et al. (Eds.), Chance in Physics Foundations and Perspectives (Lecture Notes in Physics). Berlin: Springer.
9. Uffink, J. (2006) Compendium of the Foundations of Classical Statistical Physics. 44-45. http://philsci-archive.pitt.edu/2691/1/UffinkFinal.pdf.
10. Koyré, A. (1965). Newtonian Studies. Chapman & Hall.
11. Monod, J. (1971). Chance and necessity. Knopf.
12. Cardwell, D.S.L. (1971). From Watt to Clausius: The Rise of Thermodynamics in the Early Industrial Age. London: Heinemann.
13. Guillen, M. (1999). Five Equations That Changed the World. New York: Abacus.
14. Hiebert, E.N. (1981). Historical Roots of the Principle of Conservation of Energy. Madison, Wis.: Ayer Co Pub.
15. Kuhn, T.S. (1957) "Energy conservation as an example of simultaneous discovery", in M. Clagett (ed.) Critical Problems in the History of Science pp.321–56.
16. Darwin, Charles (2008, orig. 1859. El origen de las especies. Madrid: Alianza Editorial, 2008.
17. Mayr, Ernst (1985). The growth of biological thought: Diversity, evolution, and inheritance. Londres: Belknap Press.
18. Nissen, Lowell (1997). Teleological language in the life sciences. Lanham, MD: Rowman & Littlefield.
19. Futuyma, Douglas (2009). Evolution. 2a ed. Sunderland, MA: Sinauer Associates.
20. Durkheim, Émile. Las reglas del método sociológico. Akal Editor (Ramón Akal González), Col. Manifiesto/Serie Sociología 71, Madrid, 1978.
21. Morrison, Ken (2006) (2nd ed.) "Marx, Durkheim, Weber", Sage, pp. 1–7.
22. Giddens, Anthony, y Philip W. Sutton (2022). Sociología. Alianza Editorial.
23. Ritzer, George (1991). Classic Theory in Sociology. Nueva York, NY, Estados Unidos de América: McGraw-Hill.
24. Turner, Jonathan H. (1978). The Structure of Sociological Theory. Dorsey Press.
25. Latour, Bruno, y Steve Woolgar (1986). Laboratory Life: The Construction of Scientific Facts. Editado por Jonas Salk. Princeton, NJ: Princeton University Press.
26. Dupré, J. (1993). The disorder of things: Metaphysical foundations of the disunity of science. Harvard University Press.
27. Charis, Anastopoulos. (2008). Particle or Wave: The Evolution of the Concept of Matter in Modern Physics.
28. Penrose, Roger (2007). The road to reality: a complete guide to the laws of the universe. Nueva York: Vintage Books.
29. Prigogine, I., & Stengers, I. (1984). Order out of chaos: Man's new dialogue with nature. Bantam books.
30. Martins, H. (2005). Time and theory in sociology. In Social theory today (pp. 181-220). Polity.
31. Wazeck, Milena (2009) Einsteins Gegner. Die öffentliche Kontroverse um die Relativitätstheorie in den 1920er Jahren. Frankfurt: Campus.
32. Hansson, S. O. (2017). Science denial as a form of pseudoscience. Studies in History and Philosophy of Science Part A, 63, 39–47. https://doi.org/10.1016/j.shpsa.2017.05.002.
33. Mahner, M. (2007). "Demarcating Science from Non-Science." In S. Kuipers (Ed.), Handbook of the Philosophy of Science (pp. 515–575). North-Holland. https://doi.org/10.1016/B978-044451548-3/50011-2.
34. Ruiz de Elvira, A. (25/02/2024). ¿Y si la realidad no existiese y fuera una creación de la mente? https://theconversation.com/y-si-la-realidad-no-existiese-y-fuera-una-creacion-de-la-mente-220861.
35. Kuhn, Thomas S. (1996, orig. 1962). The Structure of Scientific Revolutions. 3rd ed. Chicago: University of Chicago Press, 1996.
36. Kuhn, Thomas S. (1969). "Posdata", en La estructura de las revoluciones científicas (Editorial FCE, México D.F, 1962).
37. Kuhn, Thomas S. (1982). La tensión esencial. Estudios selectos sobre la tradición y el cambio en el ámbito de la ciencia. Madrid: Fondo de Cultura Económica.
38. Fuller, Steve (1988). La sociología del conocimiento científico.
39. Fuller, S. (2003). La ciencia de la ciudadanía: más allá de la necesidad de expertos. Isegoría, (28), 33–53. https://doi.org/10.3989/isegoria.2003.i28.505.
40. Nelkin, Dorothy (1987). Selling Science: How the press covers science and technology (1987). W.H., Freeman Press.
41. Kofman, Ava (Oct. 25, 2018). Bruno Latour, the Post-Truth Philosopher, Mounts a Defense of Science. https://www.nytimes.com/2018/10/25/magazine/bruno-latour-post-truth-philosopher-science.html.
42. Stamenkovic, Philippe (2020). The contradictions and dangers of Bruno Latour's conception of climate science. Disputatio. Philosophical Research Bulletin Vol. 9, No. 13, Jun. 2020, pp. 1-34.
43. Hilgartner, S. (1997). The Sokal Affair in Context. Science, Technology, & Human Values, 22(4), 506–522. https://doi.org/10.1177/016224399702200404.
44. Oreskes, Naomi (2021). Why Trust Science? Editado por Stephen Macedo. Princeton, NJ, Estados Unidos de América: Princeton University Press.
45. Levit, G. S., & Hossfeld, U. (2022). Ernst Mayr’s Critique of Thomas Kuhn. Epistemology & Philosophy of Science, 59(4), 163–180. https://doi.org/10.5840/eps202259463.
46. Goldman, A. I. (1999). Knowledge in a Social World. Oxford University PressOxford. https://doi.org/10.1093/0198238207.001.0001.
47. Wilson, E. O. (2016). Half-earth: Our planet’s fight for life. Nueva York: Liveright Publishing Corporation.
48. Snow, Charles P. (1963). "The Two Cultures: A Second Look." In The Two Cultures (pp. 53–100). Cambridge University Press. https://doi.org/10.1017/CBO9781139196949.006.
49. Wilson, E. O. (1999). Consilience: la unidad del conocimiento. Galaxia Gutenberg (p. 434).
50. Bunge, Mario A. (1995). Ciencia, Su Metodo y Su Filosofia. Sudamericana ("Introducción", pp. 151-154).
51. Bunge, Mario A. (2015). Crítica de la nueva sociología de la ciencia. Editorial Laetoli.
52. Bunge, Mario A. (2004). Emergencia y convergencia: novedad cualitativa y unidad del conocimiento. Gedisa.
53. Bunge, Mario A. (2002). Crisis y reconstrucción de la filosofía. Gedisa (caps. 7 y 8).
54. Bertalanffy, L. Von. (1996). Teoria General de Los Sistemas. Fondo de Cultura Economica.
55. Varela, Francisco J., Maturana, Humberto R., & Uribe, R. (1974). Autopoiesis: the organization of living systems, its characterization and a model. Biosystems 5: 187–196.
56. Baggott, Jim. (2013). Farewell to reality: How modern physics has betrayed the search for scientific truth. Pegasus Books.
Texto 1: Consilience
La clave de la unificación es la consiliencia. Prefiero esta palabra a «coherencia», porque su rareza ha conservado su precisión, mientras que coherencia tiene varios significados posibles, uno de los cuales es consiliencia. William Whewell, en su síntesis Historia de las ciencias inductivas, de 1840, fue el primero en hablar de consiliencia, literalmente un 'saltar juntos' del conocimiento mediante la conexión de sucesos y de teorías basadas en hechos de varias disciplinas para crear un terreno común de explicación. Whewell decía: «La consiliencia de las inducciones tiene lugar cuando una inducción obtenida a partir de una clase de hechos coincide con otra inducción obtenida a partir de otra clase distinta. Dicha consiliencia es una prueba de la verdad de la teoría en la que se presenta».
La única manera de establecer o de refutar la consiliencia es mediante métodos desarrollados en las ciencias naturales; y me apresuro a decir que no se trata de un esfuerzo liderado por científicos, ni congelado en la abstracción matemática, sino más bien de un esfuerzo fiel a los hábitos de pensamiento que han funcionado tan bien en la exploración del universo material.
La creencia en la posibilidad de consiliencia más allá de la ciencia y a través de las grandes ramas del saber no es todavía ciencia. Es una visión metafísica del mundo, y precisamente una visión minoritaria, que comparten sólo unos pocos científicos y filósofos. No puede probarse mediante la lógica a partir de principios primeros ni basarse en ningún conjunto definido de pruebas empíricas, por lo menos no por ninguno que se haya concebido todavía. Su mejor apoyo no es otro que una extrapolación del éxito pasado y consistente de las ciencias naturales. Su prueba más segura será su efectividad en las ciencias sociales y en las humanidades. El mayor atractivo de la consiliencia está en la perspectiva de aventura intelectual y, aunque sólo tenga un éxito modesto, en el valor de comprender la condición humana con un mayor grado de certeza.
- Wilson, (1999, orig.1998). Consilience: la unidad del conocimiento. Galaxia Gutenberg (Cap. 2: "Las grandes ramas del saber", pp. 15-16).
Texto 2: Oscurantismo y especialización
Así es que llegamos a la inteligencia ciega. La inteligencia ciega destruye los conjuntos y las totalidades, aísla todos sus objetos de sus ambientes. No puede concebir el lazo inseparable entre el observador y la cosa observada. Las realidades clave son desintegradas. Pasan entre los hiatos que separan a las disciplinas. Las disciplinas de las ciencias humanas no necesitan más de la noción de hombre. Y los ciegos pedantes concluyen que la existencia del hombre es sólo ilusoria. Mientras los medios producen la cretinización vulgar, la Universidad produce la cretinización de alto nivel. La metodología dominante produce oscurantismo porque no hay más asociación entre los elementos disjuntos del saber y, por lo tanto, tampoco posibilidad de engranarlos y de reflexionar sobre ellos.
Nos aproximamos a una mutación sin precedentes en el conocimiento: éste está, cada vez menos, hecho para reflexionar sobre él mismo y para ser discutido por los espíritus humanos, cada vez más hecho para ser engranado en las memorias informacionales y manipulado por potencias anónimas, empezando por los jefes de Estado. Esta nueva, masiva y prodigiosa ignorancia es ignorada, ella misma, por los sabios. Estos, que no controlan, en la práctica, las consecuencias de ·sus descubrimientos, ni siquiera controlan intelectualmente el sentido y la naturaleza de su investigación. Los problemas humanos quedan librados, no solamente a este oscurantismo científico que produce especialistas ignaros, sino también a doctrinas abstrusas que pretenden controlar la cientificidad (al estilo del marxismo althuseriano, del econocratismo liberal), a ideas clave tanto más pobres cuanto que pretenden abrir todas las puertas (el deseo, la mimesis, el desorden, etc.), como si la verdad estuviera encerrada en una caja fuerte de la que bastara poseer la llave, y el ensayismo no verificado se reparte el terreno con el cientificismo estrecho.
- Morin (1995). Introduccion al pensamiento complejo. Gedisa Editorial. Cap. 1 ("La inteligencia ciega", pp. 30-31).
Las contribuciones en física teórica y aplicada del último siglo han tenido como efecto una reevaluación profunda de cuestiones epistemológicas fundamentales, proporcionando evidencia empírica y modelos teóricos que obligan a refinar supuestos ontológicos y gnoseológicos arraigados en la tradición filosófica (incluyendo conceptos como causalidad y determinismo; o la posibilidad de conocer sin incertidumbre un universo separable del observador).
Diversas aportaciones en cosmología, biología, psicología y matemática de las últimas décadas han forzado interpretaciones más sofisticadas de la epistemología, para dar cuenta de la naturaleza probabilística, relacional y contextual del conocimiento, y para adaptarse a la evolución de otros ámbitos disciplinares con los que comparte el interés por analizar cierto tipo de problemas y sus ramificaciones. En conjunto, subrayan la importancia de adaptar metodologías y marcos teóricos para dar cuenta de la naturaleza dinámica y compleja del mundo físico (y del no menos complejo sistema social). Algunos conceptos influidos por el desarrollo de la investigación en los ámbitos mencionados han sido:
Orden: En la ciencia contemporánea, el concepto de orden se refiere a la organización y estructura que se observa en la naturaleza y en procesos o sistemas complejos. Implica no tanto rigidez, sino más bien una disposición armoniosa y predecible de elementos que interactúan de manera coherente. Se relaciona con la emergencia de patrones y regularidades en sistemas dinámicos, sean naturales o artificiales, y puede ser observado o inferido a partir de conjuntos de datos o de cierto tipo de evidencias.
Azar: Desde una perspectiva científica, el azar se entiende como un concepto matemático que describe eventos impredecibles o aleatorios. Aunque en apariencia caótico e impredecible, el azar puede ser modelado y comprendido a través de la teoría de probabilidades. En el ámbito científico, el azar se refiere a la falta de determinismo absoluto en ciertos fenómenos o procesos. El azar puede ser objetivo o subjetivo, y puede ser medido o estimado a partir de datos o evidencia.
Caos: En contexto científico, el caos se refiere a un estado complejo y dinámico en el que pequeñas variaciones en las condiciones iniciales pueden tener efectos significativos y difíciles de predecir en el futuro. A pesar de su aparente desorden, los sistemas caóticos siguen reglas deterministas subyacentes. El estudio del caos ha revelado patrones sorprendentes en sistemas aparentemente caóticos, como bifurcaciones, atractores atípicos o reglas de autoorganización que gobiernan el comportamiento de un sistema. El caos puede ser determinista o estocástico. Este último se produce por la influencia de factores externos o internos que introducen ruido o incertidumbre, y es frecuente en fenómenos o procesos estudiados en disciplinas como física, biología, economía y meteorología. Tanto el caos determinista como el estocástico pueden ser analizados a partir de datos o simulados computacionalmente. La alta irregularidad y aperiodicidad de los sistemas cáoticos no lineales, y su alta dependencia de las condiciones iniciales, dificulta la predicción a largo plazo. No obstante, permite simulaciones precisas y predicciones a corto plazo. En la investigación científica contemporánea se valora el análisis de patrones y regularidades detectables en los registros aparentemente caóticos de sistemas complejos, previamente considerados impredecibles.
Necesidad: En contexto científico, la necesidad se relaciona con la idea de causalidad y determinismo. Se refiere a la noción de que los eventos y fenómenos tienen causas específicas que los determinan, siguiendo leyes naturales predecibles. La necesidad implica una conexión causal entre las condiciones iniciales y los resultados observados en un sistema dado.
Predicción: Anticipación, estimación, proyección o inferencia de lo que se espera que ocurra en un sistema. Implica la existencia de modelos, hipótesis, teorías y métodos que permiten conocer o controlar el comportamiento de un sistema o proceso. La predicción puede ser determinista o probabilística, y puede ser verificada o contrastada a partir de datos o experimentos diseñados para proporcionar la evidencia requerida.
Explicación: La explicación científica es una forma de dar cuenta de un fenómeno natural o social a partir de una teoría que lo describe y lo predice. Una explicación científica debe ser coherente, lógica, verificable (susceptible de ser puesta a prueba), apta para responder a la pregunta de por qué o cómo ocurre el fenómeno que interesa explicar. Se trata de una noción básica en la epistemología filosófica, importante para evaluar la calidad y el alcance del conocimiento científico. Interesan, en particular, los criterios, las condiciones, las formas y los tipos de explicación científica, así como sus implicaciones ontológicas, metodológicas y prácticas. Tiene interés específico como herramienta de contraste frente otros tipos de explicaciones en dominios no científicos (estético, religioso, mítico, etc.).
Emergencia: Propiedades, características o comportamientos nuevos e imprevistos en un sistema complejo, que no pueden ser explicados o deducidos a partir de las propiedades, características o comportamientos de sus componentes individuales. La emergencia implica la existencia de niveles de organización, de interacciones no lineales, de retroalimentación o de autoorganización que determinan el comportamiento del sistema como un todo. La emergencia puede ser débil o fuerte, y puede ser estudiada o simulada a partir de conjuntos de datos procesados con determinados algoritmos.
- Prigogine, I., & Stengers, I. (1979). La nueva alianza: metamorfosis de la ciencia. Alianza.
- Poincaré, H. (1908). Science et méthode. Flammarion.
- Monod, J. (1970). Le hasard et la nécessité. Seuil.
- Laplace, P.S. (1814). Essai philosophique sur les probabilités. Courcier. http://eudml.org/doc/203193.
- Koyré, A. (1973). Études galiléennes. Hermann.
- Boltzmann, L. (1896). Entropie und Wahrscheinlichkeit. Barth.
- Boltzmann, L. (1877). Über die Beziehung zwischen dem zweiten Hauptsatze der mechanischen Wärmetheorie und der Wahrscheinlichkeitsrechnung resp. den Sätzen über das Wärmegleichgewicht. Wiener Berichte, 76, 373–435. Reprinted in F. Hasenöhrl (ed.), Wissenschaftliche Abhandlungen, Leipzig: J. A. Barth 1909, vol. 1902, pp. 1164–223.
- Mainzer, Klaus (2007). Thinking in Complexity: The Computional Dynamics of Matter, Mind, and Mankind. 5a ed. Berlín: Springer.
- Mach, E. (1872). History and Root of the Principles of the Conservation of Energy. Open Court Pub. Co., Illinois.
El estudio de las propiedades y fenómenos complejos que surgen de la interacción de múltiples componentes en sistemas organizados ha tenido una repercusión notable en epistemología de la ciencia. Constituye el objeto de estudio de múltiples disciplinas en rápido desarrollo.
Aunque hay desarrollos conceptuales del término documentados con anterioridad, interesan sus acepciones recientes:
En 1999, el economista Jeffrey Goldstein proporcionó una definición actual de emergencia en la revista Emergence. Goldstein inicialmente definió la emergencia como: "el surgimiento de estructuras, patrones y propiedades novedosas y coherentes durante el proceso de autoorganización en sistemas complejos".
En 2002, el científico de sistemas Peter Corning describió las cualidades de la definición de Goldstein con más detalle:
Las características comunes son: (1) novedad radical (características no observadas previamente en los sistemas); (2) coherencia o correlación (es decir, totalidades integradas que se mantienen durante algún período de tiempo); (3) Un "nivel" global o macro (es decir, hay alguna propiedad de "totalidad"); (4) es producto de un proceso dinámico (evoluciona); y (5) es "ostensivo" (se puede percibir).
Corning sugiere una definición más estrecha, que requiere que los componentes sean diferentes en especie (siguiendo a Lewes) y que impliquen la división del trabajo entre estos componentes. También dice que los sistemas vivos (comparable al juego de ajedrez), aunque emergentes, no pueden reducirse a leyes subyacentes de emergencia:
Algunos ejemplos de irreductibilidad y novedad de los fenómenos emergentes en varios campos de la ciencia son:
Estos son algunos ejemplos de fenómenos emergentes en la ciencia, aunque hay muchos más. Estos ejemplos muestran la complejidad y la riqueza de la realidad, que no se puede comprender ni explicar solo por sus componentes más básicos, sino que requiere de una visión holista y sistémica. 7 8
@@