
El curso de Teoría de la Información introduce los principios fundamentales que permiten medir, transmitir y procesar información de manera eficiente. Parte de los conceptos básicos desarrollados por Claude Shannon, como la entropía, que cuantifica la incertidumbre, y avanza hacia el análisis de sistemas de comunicación.
A lo largo del curso, se estudian herramientas matemáticas como la probabilidad y variables aleatorias, así como conceptos clave como la Entropía de Shannon, la información mutua y la capacidad de canal. También se abordan técnicas de compresión de datos (por ejemplo, codificación de Huffman) y métodos para detectar y corregir errores en la transmisión.
Finalmente, el curso conecta estos fundamentos con aplicaciones modernas en telecomunicaciones, inteligencia artificial y procesamiento de datos, mostrando cómo la teoría de la información es esencial en tecnologías digitales actuales.
- Profesor: Javier Salinas