Redes Neuronales Convolucionales (CNN)
Aprendizaje profundo
El Deep Learning está basado en redes Neuronales Artificiales, con intención de imitar el
cerebro humano, que pueden aprender sin que sean programados explícitamente desde
grandes cantidades de datos.
Nos vamos a basar en las Redes Neuronales Convolucionales (CNN), tratan el
reconocimiento de imágenes….
Usos:
- Entrenamiento desde cero: Diseñar y entrenar nuestra red para resolver el
problema. Se requieren grandes cantidades de datos para el entrenamiento.
- Transferencia de aprendizaje: Partiendo de un modelo pre-entrenado, adaptarlo
para resolver nuestro problema con relativamente “pocos” datos etiquetados
- Extracción de características para Aprendizaje Automático: Utilizamos redes
preentrenadas para preprocesar nuestros datos extrayendo las activaciones que
estos usarían para clasificar nuestros datos. Las activaciones se utilizan para
entrenar los modelos clásicos de Aprendizaje Automático.
Aprendizaje Automático vs. Aprendizaje Profundo
Se pueden añadir características de interés en base al conocimiento personal.
No siempre es fácil entender por qué la red está clasificando una imagen en uno u otro
grupo.
Aprendizaje Profundo
Puede lidiar con datos estructurados y no estructurados (tabular imágenes, texto…).
No hace falta extraer características.
Alto rendimiento, alto tamaño de la red y alta cantidad de datos.
1
, Aprendizaje Automático
Interpretabilidad
Más rápido de entrenar
Menos capacidad computacional requerida
Mejor funcionamiento (muchas veces) en conjuntos de datos pequeños
Criterio de selección:
- Capacidad computacional disponible
- Cantidad de datos disponibles
- Interpretabilidad requerida
- Tipo / dimensionalidad /complejidad de los datos (patrones complejos en imágenes,
NLP, audio, datos secuenciales data)
La Neurona
El perceptrón
Limitaciones: al basarse en un modelo de regresión lineal, solo pueden resolver problemas
linealmente separables. Ninguna línea de regresión por sí sola es capaz de resolver el
problema, por eso hay que combinarlos (combinar perceptrones).
Necesitamos añadir no-linealidad al modelo.
Funciones de activación
● Función escalón: no es óptimo para el aprendizaje
2
Aprendizaje profundo
El Deep Learning está basado en redes Neuronales Artificiales, con intención de imitar el
cerebro humano, que pueden aprender sin que sean programados explícitamente desde
grandes cantidades de datos.
Nos vamos a basar en las Redes Neuronales Convolucionales (CNN), tratan el
reconocimiento de imágenes….
Usos:
- Entrenamiento desde cero: Diseñar y entrenar nuestra red para resolver el
problema. Se requieren grandes cantidades de datos para el entrenamiento.
- Transferencia de aprendizaje: Partiendo de un modelo pre-entrenado, adaptarlo
para resolver nuestro problema con relativamente “pocos” datos etiquetados
- Extracción de características para Aprendizaje Automático: Utilizamos redes
preentrenadas para preprocesar nuestros datos extrayendo las activaciones que
estos usarían para clasificar nuestros datos. Las activaciones se utilizan para
entrenar los modelos clásicos de Aprendizaje Automático.
Aprendizaje Automático vs. Aprendizaje Profundo
Se pueden añadir características de interés en base al conocimiento personal.
No siempre es fácil entender por qué la red está clasificando una imagen en uno u otro
grupo.
Aprendizaje Profundo
Puede lidiar con datos estructurados y no estructurados (tabular imágenes, texto…).
No hace falta extraer características.
Alto rendimiento, alto tamaño de la red y alta cantidad de datos.
1
, Aprendizaje Automático
Interpretabilidad
Más rápido de entrenar
Menos capacidad computacional requerida
Mejor funcionamiento (muchas veces) en conjuntos de datos pequeños
Criterio de selección:
- Capacidad computacional disponible
- Cantidad de datos disponibles
- Interpretabilidad requerida
- Tipo / dimensionalidad /complejidad de los datos (patrones complejos en imágenes,
NLP, audio, datos secuenciales data)
La Neurona
El perceptrón
Limitaciones: al basarse en un modelo de regresión lineal, solo pueden resolver problemas
linealmente separables. Ninguna línea de regresión por sí sola es capaz de resolver el
problema, por eso hay que combinarlos (combinar perceptrones).
Necesitamos añadir no-linealidad al modelo.
Funciones de activación
● Función escalón: no es óptimo para el aprendizaje
2