Introducción
Ingeniería de prompt
Los prompts son las instrucciones que le damos al LLM para obtener una respuesta. Veremos tres consejos principales: el primero es ser detallado y específico, el segundo es guiar al modelo para que piense en su respuesta, y el tercero es experimentar e iterar.
Si le pedimos al modelo que redacte un correo promocionando nuestra página web, nos dará una respuesta genérica. Pero si le proporcionamos contexto adicional, como nombres, enlaces de la página y el nombre de la empresa, el LLM tendrá un contexto más relevante para redactar el correo. También podemos guiar al modelo para que piense en su respuesta.
Por ejemplo, si le pedimos que tome un código para hacer una serie de Fibonacci, podría hacerlo bastante bien. Pero si queremos que lo explique paso a paso, podríamos decirle: "Explica paso a paso cómo generar la serie de Fibonacci en Python".
Con una solicitud como esta, podríamos obtener un resultado detallado y comprensible.
Finalmente, experimenta e itera. Podrías comenzar con "Ayúdame a revisar este texto" y, si no te gusta el resultado, podrías volver a intentarlo. Si aún así no obtienes exactamente el resultado deseado, podrías comenzar de nuevo. Muy frecuentemente, el proceso de solicitar no se trata de comenzar con la solicitud correcta, sino de comenzar con algo y luego ajustar la solicitud para acercarla a la respuesta deseada.
Se trata de comenzar con algo y luego ver si los resultados son satisfactorios y saber cómo ajustar la solicitud para acercarla a respuesta desear.
Control de respuestas,
Se refiere a las técnicas y estrategias utilizadas para controlar estructurar las respuestas de un modelo. Es importante asegurarnos que sean respuestas útiles y precisas.
Por ejemplo, si era un modelo de respuesta que tenga que ver con registros tablas o en formato json, podríamos solicitar datos estructurados. De manera que podamos guiar su generación de texto.
Las instituciones podrían decir también el número de palabras o contenido que vamos a generar en una respuesta, incluyendo además, el tono formal o informal del contenido. Con el propósito de una comunicación correcta, podemos modificar el estilo y además, también identifican condiciones de seguridad y ética, aplicando filtros y controles que pueden evitar la generación de contenido inapropiado.
Es necesario implementar reglas para evitar respuestas que incluían un lenguaje ofensivo, información falsa o contenido sesgado. Además, podría ser necesario personalizar el contexto, ajustar las respuestas para que sean más relevantes personalizadas en cuestión del contexto.
Usar plantillas predefinidas para que el modelo pueda rellenar información relevante. Una plantilla por ejemplo para texto que genere resúmenes de manera estructurada o en programación para ofrecer fragmentos de código segmetados.
Otros artículos relacionados
Proyectos con Agente IA
Este ciclo asegura el proyecto de proyecto gestioné de manera efectiva cumpliendo con todos los objetivos y estándaros de calidad. El proceso sitiaterativo de igual modo, es importante desplegar y evaluar constantemente.
Es importante definir el objetivo del proyecto que esté alineado al objetivo del agente, estableciendo claramente requisitos y metas, construir el flujo del sistema y verificar en cuál de ellos se debe incluir o está incluido el.
Se debe realizar pruebas y verificar que el sistema funciona correctamente, que se cumplen con todos los estándares, desplegar y monitorear constantemente las respuestas para detectar cualquier problema a tiempo.