El aprendizaje automático (ML) es el proceso mediante el cual se usan modelos matemáticos de datos para ayudar a un equipo a aprender sin instrucciones directas. Se considera un subconjunto de la inteligencia artificial (IA).
El aprendizaje automático usa algoritmos para identificar patrones en los datos, y esos patrones luego se usan para crear un modelo de datos que puede hacer predicciones. Con más experiencia y datos, los resultados del aprendizaje automático son más precisos, de forma muy similar a cómo los humanos mejoran con más práctica.
Un lector está interesado en un artículo de noticias específico y desea encontrar artículos similares para recomendar. ¿Cuál es la noción correcta de similitud?.
Además, ¿qué pasa si hay millones de otros documentos? Cada vez que desee recuperar un nuevo documento, ¿necesita buscar en todos los demás documentos? ¿Cómo se agrupan documentos similares? ¿Cómo descubre nuevos temas emergentes que cubren los documentos?
En este tercer estudio de caso, para encontrar documentos similares, examinará algoritmos basados en similitudes para su recuperación. En este curso, también examinará representaciones estructuradas para describir los documentos en el corpus, incluidos los modelos de agrupación y membresía mixta, como la asignación de Dirichlet latente (LDA).
Implementará la maximización de expectativas (EM) para aprender los agrupamientos de documentos y ver cómo escalar los métodos usando MapReduce.
Al final de este curso, podrás:
-Crear un sistema de recuperación de documentos utilizando k vecinos más cercanos.
-Identificar varias métricas de similitud para datos de texto.
-Reducir los cálculos en la búsqueda de k vecino más cercano mediante el uso de árboles KD.
-Producir vecinos más cercanos aproximados utilizando hash sensible a la localidad.
-Comparar y contrastar tareas de aprendizaje supervisadas y no supervisadas.
– Agrupar documentos por tema usando k-means.
-Describir cómo paralelizar k-means usando MapReduce.
-Examinar enfoques de agrupamiento probabilístico utilizando modelos de mezclas.
-Ajuste una mezcla de modelo gaussiano utilizando la maximización de expectativas (EM).
-Realizar modelado de membresía mixta usando asignación de Dirichlet latente (LDA).
-Describir los pasos de un muestreador Gibbs y cómo usar su salida para sacar inferencias.
-Comparar y contrastar técnicas de inicialización para objetivos de optimización no convexos.
-Implementar estas técnicas en Python.
Lo que aprenderás:
- Bienvenidos:
- La agrupación en clústeres y la recuperación son algunas de las herramientas de aprendizaje automático de mayor impacto que existen.
La recuperación se utiliza en casi todas las aplicaciones y dispositivos con los que interactuamos, como para proporcionar un conjunto de productos relacionados con uno que un comprador está considerando actualmente, o una lista de personas con las que podría querer conectarse en una plataforma de redes sociales.
La agrupación se puede utilizar para ayudar a la recuperación, pero es una herramienta más ampliamente útil para descubrir automáticamente la estructura de los datos, como descubrir grupos de pacientes similares.
Esta introducción al curso le brinda una descripción general de los temas que cubriremos y el conocimiento previo y los recursos que asumimos que tiene.
- Búsqueda de vecino más cercano:
- Comenzamos el curso considerando una tarea de recuperación de buscar un documento similar a uno que alguien está leyendo actualmente.
Proyectamos este problema como una búsqueda de vecinos más cercanos, que es un concepto que hemos visto en los cursos de Fundamentos y Regresión.
Sin embargo, aquí profundizará en dos componentes críticos de los algoritmos: la representación de datos y la métrica para medir la similitud entre pares de puntos de datos.
Examinará la carga computacional del algoritmo de búsqueda de vecino más cercano ingenuo y, en su lugar, implementará alternativas escalables utilizando árboles KD para manejar grandes conjuntos de datos y hash sensible a la localidad (LSH) para proporcionar vecinos más cercanos aproximados, incluso en espacios de alta dimensión.
Explorará todas estas ideas en un conjunto de datos de Wikipedia,
- Agrupación con k-means:
- En la agrupación en clústeres, nuestro objetivo es agrupar los puntos de datos de nuestro conjunto de datos en conjuntos separados.
Motivado por nuestro estudio de caso de análisis de documentos, utilizará la agrupación en clústeres para descubrir grupos temáticos de artículos por “tema”.
Estos temas no se proporcionan en esta tarea de aprendizaje sin supervisión; más bien, la idea es generar etiquetas de clúster que puedan asociarse post-facto con temas conocidos como “Ciencia”, “Noticias del mundo”, etc. Incluso sin esas etiquetas post-facto, examinará cómo la salida de agrupación puede proporcionar información valiosa. en las relaciones entre los puntos de datos en el conjunto de datos.
El primer algoritmo de agrupación en clústeres que implementará es k-means, que es el algoritmo de agrupación en clúster más utilizado que existe.
Para escalar k-means, aprenderá sobre el marco general de MapReduce para paralelizar y distribuir cálculos, y luego cómo las iteraciones de k-means pueden utilizar este marco.
Demostrará que k-means puede proporcionar una agrupación interpretable de artículos de Wikipedia cuando se ajusta adecuadamente.
- Modelos de mezcla:
- En k-medias, cada una de las observaciones se asigna de forma rígida a un solo grupo, y estas asignaciones se basan solo en los centros del grupo, en lugar de incorporar también información de forma.
En nuestro segundo módulo sobre agrupación, realizará agrupaciones basadas en modelos probabilísticos que proporcionan (1) una noción más descriptiva de un “grupo” y (2) explica la incertidumbre en las asignaciones de puntos de datos a grupos mediante “asignaciones suaves”.
Explorará e implementará un algoritmo ampliamente útil llamado maximización de expectativas (EM) para inferir estas asignaciones suaves, así como los parámetros del modelo.
Para ganar intuición, primero considerará una tarea de agrupación de imágenes visualmente atractiva. Luego agrupará los artículos de Wikipedia, manejando la alta dimensionalidad de la representación del documento tf-idf considerada.
- Modelado de membresía mixta a través de la asignación de Dirichlet latente:
- El modelo de agrupamiento asume inherentemente que los datos se dividen en conjuntos separados, por ejemplo, documentos por tema.
Pero, a menudo, nuestros objetos de datos se describen mejor a través de membresías en una colección de conjuntos, por ejemplo, múltiples temas.
En nuestro cuarto módulo, explorará la asignación de Dirichlet latente (LDA) como un ejemplo de un modelo de membresía mixto particularmente útil en el análisis de documentos.
Interpretará la salida de LDA y varias formas en que se puede utilizar la salida, como un conjunto de características de documento aprendidas.
Las ideas de modelado de membresía mixta que aprende a través de LDA para el análisis de documentos se transfieren a muchos otros modelos y aplicaciones interesantes, como modelos de redes sociales donde las personas tienen múltiples afiliaciones.
A lo largo de este módulo, presentamos aspectos del modelado bayesiano y un algoritmo de inferencia bayesiano llamado muestreo de Gibbs.
Podrá implementar un muestreador Gibbs para LDA al final del módulo.
- Agrupación jerárquica y comentarios finales:
- Al final del curso, recapitularemos lo que hemos cubierto.
Esto representa tanto técnicas específicas para la agrupación en clústeres y la recuperación, como conceptos fundamentales de aprendizaje automático que son más ampliamente útiles.
Ofrecemos un recorrido rápido por un enfoque de agrupamiento alternativo llamado agrupamiento jerárquico, con el que experimentará en el conjunto de datos de Wikipedia.
Después de esta exploración, discutimos cómo las ideas de tipo agrupamiento se pueden aplicar en otras áreas como la segmentación de series de tiempo.
A continuación, describimos brevemente algunas ideas importantes de agrupación y recuperación que no cubrimos en este curso.
Concluimos con una descripción general de lo que le espera en el resto de la especialización.
¿Cómo obtengo el curso?
Este curso es ofrecido desde la plataforma de Coursera, es un curso que puedes obtener de manera gratuita bajo ciertas condiciones.
La primera opción es elegir la opción de “Curso gratuito sin certificado”, de esta manera podrás acceder al contenido del curso y finalizarlo, pero no podrás obtener un certificado de finalización avalado por la plataforma.
La segunda opción es elegir “auditar curso”, con esta opción podrás acceder al contenido de video del curso, pero no podrás realizar los exámenes ni obtener el certificado de finalización. Si no ves la opción de auditar curso, debes verificar en la parte de abajo usando el scroll (en forma de link).
Las opciones varían dependiendo el curso, pero con cualquiera de las dos podrás acceder gratuitamente al contenido. Por si fuera poco, algunos cursos tienen la opción de ayuda económica, con los cuales puedes solicitar dicho apoyo y ser acreedor de un curso de pago.
Para obtener el curso de manera gratuita da clic en el siguiente botón: