ver vídeo
Inteligencia artificial Deep learning

Curso de Modelos personalizados de inteligencia artificial generativa: desarrolla tu propio chatbot

ver vídeo

En un mundo donde la tecnología evoluciona a un ritmo acelerado, el dominio de los modelos de lenguaje de gran tamaño (LLMs) y las tecnologías RAG se están convirtiendo en una herramienta crucial para innovar y transformar industrias.

Este curso está diseñado para proporcionar una comprensión profunda de los LLMs, explorando cómo estos modelos no solo comprenden y generan texto con una precisión impresionante, sino cómo se pueden crear soluciones específicas que van desde la mejora de sistemas de recomendación hasta la automatización de respuestas en servicios de atención al cliente.

  • Dirigido a

    Profesionales y estudiantes de tecnologías de la información, ciencias de datos, inteligencia artificial y áreas afines que desean adquirir conocimientos fundamentales sobre los Modelos de Lenguaje de Gran Escala (LLMs) y su aplicación en la inteligencia artificial generativa. Es ideal para:

    • Desarrolladores de software y programadores interesados en inteligencia artificial.
    • Analistas de datos y científicos de datos que buscan mejorar sus habilidades en procesamiento y recuperación de información.
    • Ingenieros de sistemas y arquitectos de soluciones que desean implementar soluciones basadas en LLMs.
    • Estudiantes y académicos interesados en las aplicaciones prácticas de la inteligencia artificial generativa.

  • Competencias a adquirir

    • Identificar y explicar los componentes clave y la funcionalidad de los Modelos de Lenguaje de Gran Escala (LLMs) y la Recuperación de Información Generativa (RAG).
    • Evaluar ejemplos de aplicaciones RAG y describir cómo se integran con LLMs para mejorar la recuperación de información.
    • Aplicar técnicas de procesamiento para transformar datos no estructurados en formatos adecuados para el uso en LLMs.
    • Desarrollar habilidades para implementar y utilizar Sentence Transformers en la creación de bases de datos vectoriales para aplicaciones RAG.
    • Implementar y evaluar estrategias de búsqueda y recuperación utilizando consultas vectoriales y modelos LLM.
    • Implementar y desplegar modelos LLM en entornos locales y en la nube, utilizando herramientas avanzadas para facilitar el acceso y la interacción.
    • Utilizar frameworks de código abierto para desarrollar y desplegar aplicaciones RAG, demostrando comprensión y habilidad en la integración de estos componentes.

  • Requisitos

    • Programación, preferiblemente en Python.
    • Fundamentos de inteligencia artificial y aprendizaje automático.
    • Conceptos básicos de manejo y procesamiento de datos.
    • Familiaridad con el entorno de desarrollo de software y herramientas de código abierto.

Descarga el temario completo en PDF
  1. Conceptos básicos sobre LLMs y recuperación de datos

    • Componentes clave de los modelos de lenguaje grande (LLMs)
    • ¿Por qué son tan revolucionarios los Transformers?
    • Limitaciones de las redes neuronales clásicas
    • La revolución de los Transformers
    • ¿Y a efectos prácticos, qué necesito tener para operar mi propio LLM?
    • Cargando un modelo de GPT2 en nuestro entorno de desarrollo
    • Las matemáticas muy resumidas detrás de los Transformers (solo para fans verdaderos)
    • Comparación de Transformers con CNNs y RNNs
    • ¿Y cómo es posible que los LLMs parezcan razonar?
    • Componentes clave de la recuperación de datos
    • Resumen
  2. Procesamiento de datos no estructurados

    • Definición de datos no estructurados
    • Algunos tipos de datos no estructurados
    • ¿Cómo se usan los datos no estructurados en RAG?
    • Preprocesamiento de Texto
    • Datos en ficheros
    • Importancia de procesar datos no estructurados para LLMs
    • ¿Qué es exactamente la indexación de datos?
    • Procesamiento de datos multimedia
    • Procesar videos (extraer audio, transcribirlo y generar embeddings)
    • Resumen
  3. Embeddings y bases de datos vectoriales

    • Bases de datos de vectores
    • Almacenamiento en bases de datos relacionales y NoSQL
    • Archivos binarios y almacenamiento en disco
    • Bases de datos vectoriales
    •  Almacenamiento de embeddings en bases de datos vectoriales
    • Introducción a los Sentence Transformers
    • Flujo general de integración de datos procesados en LLMs
    • Resumen
  4. Crea tu chatbot con datos personalizados

    •  Siguientes pasos
    • ¿Puedo alojar mi chatbot en Hugging Face?
    • Alojando el chatbot en tu propio servidor
    • Mantenimiento del chatbot
    •  Evaluación de la recuperación de información
    • Métricas relevantes
    • Evaluando la efectividad del chatbot
    • Resumen
  5. Despliegues de LLMs, plataformas y herramientas

    • Beneficios del despliegue local versus en la nube
    • Herramientas y entornos para despliegue local 
    • Despliegue de LLMs en la nube
    • Optimización y mantenimiento de despliegues
    • Estrategias de actualización y mantenimiento de los modelos
    • Discusión sobre desafíos y soluciones en el uso práctico de LLMs
    • Resumen

Este curso cumple con los requisitos establecidos por FUNDAE para la bonificación de Formación Programada.

Si te interesa impartir esta formación en tu organización, solicita más información.

¿Necesitas impartir esta formación en tu organización?

Solicita más información

Modelos personalizados de inteligencia artificial generativa: desarrolla tu propio chatbot

Otros cursos que te pueden interesar Cursos de tu interés

Política de privacidad

ADR Formación utiliza cookies propias y de terceros para fines analíticos anónimos, guardar las preferencias que selecciones y para el funcionamiento general de la página.

Puedes aceptar todas las cookies pulsando el botón "Aceptar" o configurarlas o rechazar su uso pulsando el botón "Configurar".

Puedes obtener más información y volver a configurar tus preferencias en cualquier momento en la Política de cookies