Agentes IA
Los Agentes IA en DYPAI son ciudadanos de primera clase en tu backend. Se integran al mismo sistema de workflows que todo lo demás, llaman a tus endpoints existentes como herramientas, recuerdan conversaciones, envían respuestas en streaming a tu frontend, y funcionan con OpenAI, Anthropic o Gemini — de forma intercambiable.
Sin configuración extra
Los agentes son un tipo de nodo más. Colócalo en un workflow, elige proveedor y modelo, opcionalmente engánchale herramientas y expónlo como endpoint. Tu frontend habla con él usando el hook useChat del SDK.
Qué hace diferentes a los agentes de DYPAI
Herramientas = tus endpoints
Cualquier endpoint marcado como tool queda disponible para el agente. Reutiliza el mismo código que usa tu UI.
Agnóstico de modelo
Cambia entre OpenAI, Anthropic y Gemini modificando un solo campo. Sin reescribir código.
Memoria integrada
Memoria por sesión o por usuario, guardada en la base de datos de tu proyecto. No hace falta una vector DB externa para chats simples.
Streaming de serie
El hook useChat() del SDK renderiza respuestas parciales según van llegando. Plug and play.
Cómo funciona un agente
Recibe un mensaje
Tu frontend envía un mensaje del usuario a un endpoint de agente a través del SDK.
Carga memoria (opcional)
Si la memoria está activa, los mensajes anteriores de la sesión o el usuario se cargan automáticamente.
Piensa y decide
El LLM lee el system prompt, el historial y las herramientas disponibles. Decide si responder directamente o llamar a una herramienta.
Llama herramientas si hace falta
Cuando el agente quiere datos o quiere ejecutar una acción, llama a uno de tus endpoints tool. El resultado se vuelve a pasar a la conversación.
Repite hasta terminar
El loop corre hasta max_iterations veces (por defecto 5). Cada iteración puede implicar otra llamada a tool o una respuesta final.
Devuelve y persiste
La respuesta final vuelve a tu frontend. Si la memoria está activa, la conversación se guarda automáticamente.
Ejemplo rápido
Configuración mínima para un asistente de chat que puede consultar tu tabla tasks.
1. Añade una credencial
En el dashboard ve a Credentials → Add new y guarda tu API key de OpenAI (o Anthropic / Gemini).
2. Crea un endpoint tool
Construye un endpoint normal llamado list_tasks que devuelva tareas desde tu base de datos. En la cabecera del endpoint, activa el toggle Tool y escribe una descripción corta para el agente:
"Lista todas las tareas del usuario actual. Devuelve un array de
{id, title, done, due_date}."
3. Crea el endpoint del agente
Crea un endpoint con un único nodo AI Agent:
| Campo | Valor |
|---|---|
| Proveedor | openai |
| Modelo | gpt-4o-mini |
| Credencial | La credencial OpenAI que añadiste |
| System prompt | You are a helpful task assistant. Use the tools available to answer questions about the user's tasks. |
| Tools | Selecciona list_tasks |
| Memory | Per User |
4. Llámalo desde tu frontend
import { useChat } from '@dypai-ai/client-sdk/react'
function ChatBox() {
const { messages, sendMessage, isStreaming } = useChat('task_assistant')
return (
<div>
{messages.map((m, i) => (
<div key={i}>{m.role}: {m.content}</div>
))}
<button onClick={() => sendMessage('¿Qué tareas vencen esta semana?')}>
Preguntar
</button>
</div>
)
}
Listo. El agente llamará a list_tasks, leerá los resultados y responderá en lenguaje natural — haciendo streaming a la UI.
Crear agentes desde tu IDE
Todo lo de arriba lo puedes montar a través del MCP. Simplemente dile a tu asistente IA:
"Crea un asistente de chat que pueda listar y crear tareas. Usa Gemini 2.5 Flash. Convierte los endpoints
list_tasksycreate_tasken tools y asígnalos al agente."
Configurará la credencial, marcará los endpoints como tools, creará el endpoint del agente y lo probará end-to-end.