Descifrando la incertidumbre: un viaje a través de la entropía de Shannon, la mecánica lagrangiana y la confiabilidad
Contenido principal del artículo
Resumen
La teoría de la información de Claude E. Shannon, formulada en la década de 1940, es clave para cuantificar la incertidumbre en diversos sistemas, incluyendo comunicación, inteligencia artificial, estadística e ingeniería de confiabilidad. La entropía de Shannon mide la información en un mensaje y optimiza su transmisión, minimizando el ruido. Este artículo explora la relación entre la entropía, la mecánica lagrangiana y la confiabilidad de sistemas. Se plantea que el principio de mínima acción, base de la mecánica lagrangiana, también se aplica en la optimización de la transmisión de información y la predicción de fallas en sistemas industriales. La incertidumbre se interpreta como un factor central en la dinámica de sistemas físicos y de información, estableciendo un marco matemático basado en restricciones probabilísticas y principios variacionales. Finalmente, se destaca la conexión entre la ecuación de Euler-Lagrange y la evolución de la incertidumbre en sistemas de información y confiabilidad. Esta perspectiva describe la dinámica de la incertidumbre y su impacto en la gestión del riesgo y la optimización, ampliando la aplicabilidad de la teoría de la información en la toma de decisiones en ciencia e ingeniería, particularmente en confiabilidad.
Detalles del artículo
Sección
Cómo citar
Referencias
Aladro Vico, E. (2011). La teoría de la información ante las nuevas tecnologías de la comunicación. CIC. Cuadernos de Información y Comunicación, 16: 83–93.
Ballén Méndez, I. C. (2023). Un acercamiento termodinámico a las ecuaciones de campo de Einstein [Tesis de grado, Universidad de los Andes]. Repositorio Uniandes.
Bussotti, P., Capecchi, D., & Ruta, G. (2024). On the origins of Hamilton’s principle(s). Encyclopedia, 4: 1454–1471. https://doi.org/10.3390/encyclopedia4040094
Capurro, R. (2007). Epistemología y ciencia de la información. Revista de Ciencias de la Información, 4(1): 1–15.
Cárdenas, J. H. (2022). Física estadística: una visión a partir de la entropía y la teoría de la información. Pontificia Universidad Católica de Valparaíso.
Hawking, S. W. (2005). Information loss in black holes. Physical Review D, 72: 084013. https://doi.org/10.1103/PhysRevD.72.084013
Le Thi, M. L. (2016). Entropía: Una medida de riesgo. Banco de México.
López Pérez, R. (1998). Crítica de la teoría de la información: Integración y fragmentación en el estudio de la comunicación. Cinta Moebio, 3: 24–30.
Luna, A. E. (2005). Teoría de la confiabilidad. Facultad de Ciencias Exactas y Naturales, Universidad de Buenos Aires.
Mena Díaz, N. (2012). Redes sociales y gestión de la información: Un enfoque desde la teoría de grafos. Ciencias de la Información, 43(1). 29–37.
Shannon, C. E. (1948). A mathematical theory of communication. The Bell System Technical Journal, 27, 379–423, 623–656.
Suárez Álvarez, E. (2011). Avances metodológicos en el cálculo de la entropía conformacional y la energía de biomoléculas y su aplicación a modelos de colágeno. Dialnet.
Susskind, L. (1997). Black holes and the information paradox. Scientific American, 276: 52–57.
Weaver, C. G. (2023). Hamilton, Hamiltonian mechanics, and causation. Foundations of Science. https://doi.org/10.1007/s10699-023-09967-3