The rise of the learning machines
- López Rubio, Ezequiel
- David Teira Serrano Director
- Emanuele Ratti Codirector/a
Universidad de defensa: UNED. Universidad Nacional de Educación a Distancia
Año de defensa: 2021
- Gualtiero Piccinini Presidente/a
- Jesús Pedro Zamora Bonilla Secretario
- Juan M- Durán Vocal
Tipo: Tesis
Resumen
La presente tesis doctoral realiza un análisis del aprendizaje computacional desde el punto de vista de la filosofía de la ciencia. El aprendizaje computacional ha logrado éxitos considerables en la resolución de problemas específicos. Entre sus aplicaciones más populares, podemos mencionar los sistemas expertos, la bioinformática, la traducción automática, el reconocimiento del habla, el reconocimiento óptico de caracteres, y el diagnóstico médico. Sin embargo, el proceso de aprendizaje no es fácil de comprender para un humano, y los significados y los símbolos no aparecen en el proceso. En general, el enfoque a las aplicaciones específicas está lejos del ideal de una inteligencia artificial general, que tenga habilidades cognitivas similares a las de los seres humanos. Las principales preguntas son si hay límites al aprendizaje en términos de rendimiento y si las máquinas podrán tener mejor rendimiento que los humanos en algunas tareas. Se propone un nuevo tipo de complejidad de los modelos adecuada para el aprendizaje computacional, que es denominada complejidad computacional. La cantidad de computaciones que se necesitan para entrenar un modelo es lo que realmente importa a los profesionales del aprendizaje máquina, ya que su objetivo es conseguir el mayor rendimiento en predicción posible, al menor coste computacional. Las medidas de simplicidad más antiguas basadas en la estructura del modelo son menos utilizadas porque sólo dan indicaciones indirectas del rendimiento predictivo. Se argumenta que el papel del aprendizaje máquina depende de la complejidad del fenómeno en estudio. El tipo de complejidad que es relevante aquí es la dificultad para producir una descripción comprensible en lenguaje matemático del mecanismo que relaciona las variables, de manera que dicha descripción sea generalizable a otras situaciones y pueda emplearse para inferir predicciones comprobables. El equilibrio entre sesgo y varianza implica que para relaciones complejas entre las variables, la explicación y la predicción llegan a ser dos objetivos independientes, de manera que los mejores modelos de acuerdo con una de ellas no son óptimos para la otra. Se considera que la revolución del aprendizaje profundo ha cambiado completamente la forma en que el aprendizaje computacional se aplica a la visión por computador y el procesamiento del lenguaje natural en tan solo unos pocos años. Se han investigado las posibles similitudes entre las redes neuronales artificiales profundas y el cerebro humano. La evidencia obtenida hasta el momento sugiere que las versiones del funcionalismo computacional que están basadas en modelos simbólicos de la computación están obsoletas. En vista de ello, se propone el funcionalismo computacional neuronal, que establece que las redes neuronales artificiales profundas son el modelo computacional de referencia del funcionamiento interno del cerebro humano. La investigación en neurociencia podrá determinar en el futuro si esta asociación es válida.