Aprende a Comunicarte con ChatGPT

Repositorio de Técnicas en Ingeniería de Peticiones o Instrucciones (Prompt Engineering)

 

El Prompt Engineering es una disciplina revolucionaria en el ámbito de la Inteligencia Artificial o IA Generativa, específicamente en la manera en que interactuamos con modelos de lenguaje avanzados como GPT-4. Este enfoque no se basa en modificar o reentrenar los algoritmos subyacentes, sino en optimizar las instrucciones o prompts que les damos, lo que abre nuevas habilidades del modelo en investigación y el sector de la salud, entre otros.

Nuestra formación o curso online sobre Prompt Engineering destaca por enseñar cómo diseñar estas instrucciones específicas para mejorar la interacción con tecnologías de Inteligencia Artificial. En nuestros cursos, ofrecemos un aprendizaje basado en ejemplos prácticos y contenido adaptado a las ciencias de la salud e investigación, aunque los principios se pueden aplicar universalmente. Esto supone un recorrido desde conceptos básicos hasta conceptos avanzados para la generación de prompts efectivos que te proporcionarán mejores resultados.

Los prompts bien diseñados pueden transformar la utilidad de los modelos en tareas específicas para las cuales no fueron directamente entrenados, es decir para poder usarlos en nuevas aplicaciones. Es más, el dinamismo del campo de la Inteligencia Artificial nos muestra continuamente a través de nuevas publicaciones científicas la importancia de estar al día con las estrategias de ingeniería de prompts, especialmente en áreas críticas como la salud y la investigación científica.

A pesar de la variedad de publicaciones, algunas como las de Li y Sahoo han intentado categorizar los prompts, un esfuerzo que valoramos profundamente en nuestro curso online. A través de nuestros videotutoriales, explicamos cómo adoptar y adaptar estos patrones para maximizar la eficiencia de los LLMs en cualquier dominio, reforzando así el papel crucial de la Inteligencia Artificial en la investigación y la mejora de la salud.

En resumen, este curso online, va mucho más allá que cualquier curso gratuito, y no solo se centra en el uso práctico de la Ingeniería de Prompts sino que también explora las fronteras de la Inteligencia Artificial, enseñando a los profesionales cómo estos avances pueden ser aplicados en la investigación y el cuidado de la salud. Los contenidos o lecciones de alta calidad permiten que nuestros suscriptores adquieran un conocimiento sólido y aplicable en una amplia variedad de técnicas como las que se muestran a continuación. Entender el procesamiento de la información por parte de estos sistemas, es un paso clave para su correcto uso. 

Listado de Técnicas

Para realización de nuevas tareas con nulos o pocos ejemplos:

  • Zero-shot Prompting: Consiste en instruir al modelo para que nos proporcione una respuesta sin proporcionar ningún tipo de ejemplo, es decir, confiando exclusivamente en su entrenamiento previo. (Visualizar la lección - Visualizar el Curso).
  • Few-shot Prompting: Mejora la capacidad de los modelos de inteligencia artificial al proporcionarles unos pocos ejemplos de entrada y salida, ayudándolos a entender mejor una tarea específica, a diferencia del enfoque de zero-shot que no usa ejemplos. (Visualizar la lección - Visualizar el Curso).

Para tareas que implican razonamiento o lógica:

  • Chain-of-Thought (CoT) Prompting: Mejora significativamente la capacidad de los modelos para generar respuestas estructuradas y profundas, guiándolos a través de una cadena lógica de razonamiento. (Visualizar la lección - Visualizar el Curso).
  • Automatic Chain-of-Thought (Auto-CoT): Automatiza la creación de ejemplos de razonamiento paso a paso para los modelos de lenguaje grande, haciéndolos más eficientes al generar cadenas de razonamiento. (Visualizar la lección - Visualizar el Curso).
  • Self-Consistency: Mejora el rendimiento de razonamiento en modelos de lenguaje al generar diversas cadenas de razonamiento y seleccionar la respuesta final más consistente. (Visualizar la lección - Visualizar el Curso).
  • Logical CoT (LogiCoT) Prompting: Mejora la capacidad de razonamiento del modelo combinando el razonamiento paso a paso con principios de la lógica simbólica. (Visualizar la lección - Visualizar el Curso).
  • Chain-of-Symbol (CoS) Prompting: Mejorar el razonamiento espacial en los modelos, reemplazando el lenguaje natural con símbolos condensados. Esto reduce la ambigüedad y mejora tanto la precisión como la interpretabilidad humana. (Visualizar la lección - Visualizar el Curso).
  • Tree-of-Thoughts (ToT) Prompting: Mejora la capacidad de los modelos de lenguaje para realizar tareas complejas que requieren exploración y razonamiento anticipatorio. Organiza los pasos de razonamiento intermedio en una estructura de árbol, permitiendo a los modelos evaluar y seleccionar caminos de solución de manera más efectiva mediante algoritmos de búsqueda. (Visualizar la lección - Visualizar el Curso).
  • Graph-of-Thought (GoT) Prompting: Permite una interacción dinámica, la capacidad de volver atrás y evaluar ideas, y combinar pensamientos de diferentes ramas, creando un proceso de razonamiento más complejo y flexible. (Visualizar la lección - Visualizar el Curso).
  • System 2 Attention Prompting: Mejora la capacidad de los modelos de lenguaje basados en Transformer para enfocarse en la información relevante, minimizando el efecto del contexto irrelevante. (Visualizar la lección - Visualizar el Curso).
  • Thread of Thought (ThoT) Prompting: Descompone contextos extensos en segmentos manejables para un análisis incremental, siguiendo un enfoque de dos fases que implica la suma y examen de cada segmento antes de refinar la información para la respuesta final. (Visualizar la lección - Visualizar el Curso).
  • Chain-of-Table Prompting: Utiliza el razonamiento paso a paso a través de operaciones de SQL/DataFrame en tablas, superando las limitaciones de los enfoques basados en texto o código en escenarios de tablas complejas. Este patrón no se explica en el curso por no disponer de una representación práctica aplicable a usuarios de ChatGPT.

Para tareas en las que buscamos respuestas fiables:

  • Retrieval Augmented Generation (RAG): Integra la recuperación de información para superar las limitaciones de los modelos que dependen de datos de entrenamiento estáticos. (Visualizar la lección - Visualizar el Curso).
  • ReAct Prompting: Permite a los modelos generar rastros de razonamiento y acciones específicas de la tarea de manera concurrente, mejorando la sinergia entre el razonamiento y la acción. (Visualizar la lección - Visualizar el Curso).
  • Chain-of-Verification (CoVe): Método para reducir las alucinaciones, mediante un proceso de cuatro pasos que incluye generar respuestas iniciales, planificar preguntas de verificación, responder estas preguntas de manera independiente y producir una respuesta revisada que integre la verificación. (Visualizar la lección - Visualizar el Curso).
  • Chain-of-Note (CoN) Prompting: Permite identificar y priorizar información crítica y confiable, mejorando la precisión de las respuestas y la capacidad de reconocer y rechazar preguntas cuando la información es desconocida o excede el conocimiento pre-entrenado del modelo. Más que un patrón, puede verse como un facilitador para implementaciones de RAG. Es por este motivo que no se explica en el curso al no disponer de una representación práctica aplicable a usuarios de ChatGPT.
  • Chain-of-Knowledge (CoK) Prompting:  Descompone las tareas en pasos bien coordinados, comenzando con una etapa de preparación del razonamiento para establecer el contexto y enmarcar el problema. Luego, avanza hacia una fase de adaptación del conocimiento dinámico, reuniendo meticulosamente evidencia de fuentes variadas, incluyendo su base de conocimientos interna, bases de datos externas y la instrucción proporcionada. Más que un patrón, puede verse como un facilitador para implementaciones de RAG. Es por este motivo que no se explica en el curso al no disponer de una representación práctica aplicable a usuarios de ChatGPT.

Para tareas en las que buscamos interacción con el usuario:

  • Active-Prompting: Optimiza el desempeño de los modelos en tareas complejas de preguntas y respuestas mediante el uso de ejemplos específicos de tareas con razonamiento de cadena de pensamientos (CoT). Este patrón no se explica en el curso por no disponer de una representación práctica aplicable a usuarios de ChatGPT.

Para tareas en las que buscamos ajustar o optimizar las respuestas:

  • Automatic Prompt Engineer (APE): Genera y selecciona dinámicamente las instrucciones más efectivas para tareas específicas mediante el análisis de la entrada del usuario, la creación de instrucciones candidatas y la utilización del aprendizaje por refuerzo para elegir la instrucción óptima. (Visualizar la lección - Visualizar el Curso).

Para tareas de razonamiento basado en el conocimiento y generación:

  • Automatic Reasoning and Tool-use (ART): Habilitar el razonamiento a través de procesos de múltiples pasos y la integración fluida de herramientas externas. Este patrón no se explica en el curso porque principalmente se basa en conectar el modelo con herramientas externas que muestran contextos o ejemplos de tareas específicas. El modelo simplemente identifica la tarea y busca el tipo de tarea para alimentarse de estos ejemplos.

Para mejorar la coherencia y consistencia de las respuestas:

  • Contrastive Chain-of-Thought prompting (CCoT): Incluye demostraciones de razonamientos válidos e inválidos junto con las instrucciones originales. Esta metodología, similar a tener un mapa con el camino correcto y los desvíos a evitar, ofrece una perspectiva dual que refuerza el razonamiento paso a paso. (Visualizar la lección - Visualizar el Curso). 

Para el manejo de emociones y tono:

  • Emotion Prompting: Incorpora frases estimulantes emocionales en las instrucciones, basándose en la investigación psicológica sobre el impacto del lenguaje en el desempeño humano. Explicamos esta patrón en el siguiente enlace.

Para generación y ejecución de código:

Estos patrones no se explica en el curso por tratarse de una demostración de como realizar operaciones complejas o trabajar con código llevando a cabo pasos intermedios que servirán para entrenar a futuros modelos en la realización de dichas operaciones.

  • Scratchpad Prompting: Permite al modelo generar una secuencia arbitraria de tokens intermedios antes de proporcionar la respuesta final, mejorando significativamente la capacidad de razonamiento preciso en cálculos algorítmicos. 
  • Program of Thoughts (PoT) Prompting: Permite que modelos como Codex expresen el razonamiento a través de programas Python ejecutables, superando las limitaciones habituales de los modelos de lenguaje en la solución de expresiones matemáticas, como errores aritméticos y manejo ineficaz de ecuaciones complejas.
  • Structured Chain-of-Thought (SCoT) Prompting: Integrar estructuras de programación (secuencia, bifurcación y bucles) dentro de los pasos de razonamiento
  • Chain of Code (CoC) Prompting: Representa una extensión de la técnica de Chain of Thought (CoT), destinada a mejorar las capacidades de razonamiento de los modelos al incorporar la escritura de código para tareas de lógica y semánticas.

Para la optimización y eficiencia:

  • Optimization by Prompting:  Utiliza instrucciones en lenguaje natural para generar soluciones iterativamente a partir de la descripción del problema, lo que facilita la rápida adaptación a diversas tareas y la personalización del proceso de optimización. Es una técnica con potencial para mejorar la precisión de las tareas mediante la optimización de prompts. Este patrón no se explica en el curso por no disponer de una representación práctica aplicable a usuarios de ChatGPT.

Para comprender la intención del usuario:

  • Rephrase and Respond (RaR) Prompting: Permite al modelo reformular y expandir preguntas en una sola instrucción. Esta aproximación mejora la comprensión y la precisión de las respuestas de los modelos, con una variante de dos pasos que incorpora modelos separados para la reformulación y la respuesta, logrando mejoras significativas en el rendimiento en diversas tareas. (Visualizar la lección - Visualizar el Curso).

Para Metacognición y autorreflexión:

  • Take a Step Back Prompting: Permite a los modelos realizar abstracciones, extrayendo conceptos de alto nivel y principios fundamentales de instancias específicas mediante un proceso de dos etapas que integra Abstracción y Razonamiento. (Visualizar la lección - Visualizar el Curso).

Referencias:

  1. Li, Z. et al. Guiding Large Language Models via Directional Stimulus Prompting. arXiv (2023) doi:10.48550/arxiv.2302.11520.
  2. Sahoo, P. et al. A Systematic Survey of Prompt Engineering in Large Language Models: Techniques and Applications. arXiv (2024).
 
Tecnología Médica Futurista y Diagnósticos de Salud

Curso Online ChatGPT para Investigación y Salud

Modalidad: Online en formato de videotutoriales bajo demanda

Precio: 49.99€

Este curso está diseñado para profesionales e investigadores en el ámbito de la salud interesados en comprender y aplicar la inteligencia artificial en sus campos de trabajo. Cubrirá desde los fundamentos de los modelos de lenguaje como ChatGPT hasta técnicas avanzadas para su uso responsable en la generación y detección de textos médicos. Además, se abordarán temas relacionados con la ética y la seguridad en el uso de IA en la medicina. Este curso es una oportunidad única para estar a la vanguardia en la aplicación de tecnologías disruptivas en el sector de la salud.

Ver Programa Detallado