Mostrando entradas con la etiqueta Deep Learning. Mostrar todas las entradas
Mostrando entradas con la etiqueta Deep Learning. Mostrar todas las entradas

sábado, 5 de septiembre de 2020

Curso de Deep Learning con Keras


Aquí dejo los enlaces correspondientes a los post que fui publicando recientemente hasta completar este cursillo de Deep Learning con Keras. El curso se puede hacer con Anaconda y Jupyter, aunque yo he utilizado Colaboratory de Google que es online, gratuito y se ejecuta en la nube. Aunque algunas capturas de pantalla son de la red  CNTK de Microsoft, da igual, lo importante son los comandos y sobre todo los conceptos en este curso introductorio.

A continuación se marcan los capítulos del curso, con su correspondiente enlace.

Imágenes similares a esta.

sábado, 29 de agosto de 2020

Introducción a las Redes Antagónicas Generativas (GAN)

Las Redes Antagónicas (o Adversarias) Generativas (Generative Adversarial Networks) , o GAN para abreviar, son un enfoque para el modelado generativo utilizando métodos de aprendizaje profundo, como las redes neuronales convolucionales.

El modelado generativo consiste en una tarea de aprendizaje no supervisada en aprendizaje automático que implica descubrir y aprender automáticamente las regularidades o patrones en los datos de entrada de tal manera que puede utilizarse una red neuronal para generar nuevos ejemplos que podrían haberse extraído del conjunto de datos de entrenamiento original.

Mujer trabajando en un CPD
Mujer trabajando en un CPD, click para ver más fotos como esta.
El paradigma GAN es una forma ingeniosa de entrenar una red generativa al enmarcar el problema como un problema de aprendizaje supervisado con dos subredes: una red generadora que entrenamos para generar nuevos ejemplos, y una red discriminadora que trata de clasificar las salidas de la red anterior como reales (del dominio de entrenamiento) o falsos (generado por la red generadora). Las dos redes se entrenan juntas en un juego de suma cero, (las ganancias de un jugador son las pérdidas del adversario) hasta que se engaña a la red discriminadora aproximadamente la mitad del tiempo, lo que significa que la red generadora está generando ejemplos tan buenos como las entradas utilizadas para entrenar la red.