Wait! Let’s Make Your Next Project a Success

Before you go, let’s talk about how we can elevate your brand, boost your online presence, and deliver real results.

To pole jest wymagane.

Master n8n Prompt Engineering zwiększający skuteczność AI agentów aż 10 razy

Master n8n Prompt Engineering zwiększający skuteczność AI agentów aż 10 razy

Zanim wszedłem głębiej w świat automatyzacji AI w n8n, byłem przekonany, że wystarczy połączyć odpowiednie narzędzia, ustawić model i już – agent sam zacznie działać zgodnie z intencją. Jednak życie szybko mnie sprowadziło na ziemię. Okazało się, że nawet przy najlepszych modelach, agent potrafi zachowywać się jak pies spuszczony ze smyczy – raz zrobi porządną robotę, ale często zaskoczy mnie nieprzewidywalną interpretacją polecenia. Dziś spojrzę z Tobą na ten problem z perspektywy praktyka i pokażę krok po kroku, jak dzięki masterowaniu prompt engineering w n8n można spokojnie spać, mając na koncie agentów, którzy działają nawet 10 razy skuteczniej.

W tekście dowiesz się:

  • Jak myśleć o architekturze AI agenta w n8n i dlaczego cztery elementy są tu kluczowe.
  • Jak precyzyjnie ustawiać user message i system message w n8n, by unikać typowych pułapek.
  • Jak napisać pięciosekcyjny system prompt, który staje się realnym kontraktem z AI.
  • Dlaczego markdown i pogrubienia mają dla AI realne znaczenie.
  • Jak projektować multi-agent workflows, które robią robotę, a nie generują chaos.

Podzielę się swoim własnym doświadczeniem – tym, co działa i tym, na czym można się przejechać.

1. Jak zbudowany jest AI agent w n8n: praktyczna mapa do głowy

AI agent w n8n ma swoją „fizjonomię”, którą warto zapamiętać, bo pozwala lepiej zrozumieć, na co masz wpływ i gdzie możesz wzmocnić efektywność.

  • Agent (AI Agent node): Twój „koordynator” – zbiera dane, decyduje, z czym je zestawić i jak odpowiedzieć.
  • Mózg (LLM): Model językowy – tutaj naprawdę dzieje się magia myślenia. W praktyce to może być GPT-4, Claude czy inny duży model.
  • Pamięć: Historia konwersacji – tu agent „trzyma w głowie”, co już się wydarzyło, żeby nie zgubić kontekstu rozmowy.
  • Narzędzia (Tools): Zestaw integracji i operacji – Gmail, Google Calendar, HTTP requests, narzędzia wyszukujące… Słowem: zestaw akcji, które agent może wywołać na zewnątrz.

Schemat komunikacji wygląda z grubsza tak:

  • Użytkownik (czyli Ty lub Twój klient) wysyła wiadomość do systemu.
  • Ta wiadomość trafia do AI Agent node.
  • Agent składa „prompt” z user message (Twoje polecenie), system message (instrukcja dla AI), a także dorzuca pamięć z wcześniejszych rozmów.
  • Model językowy przetwarza komendę i zwraca odpowiedź.
  • Agent, jeśli trzeba, uruchamia narzędzie z zestawu i wykonuje faktyczną operację.
  • Ostateczna odpowiedź wraca do użytkownika.

Jeśli chcesz, żeby agent zachowywał się przewidywalnie i automaty robione w n8n nie robiły psikusów, najważniejsze jest to, **jak ułożysz prompt**. Do tego zaraz wrócimy.

2. User message vs System message – dwa filary skutecznego promptowania

Pierwszy moment, w którym się gubiłem, to rozdzielenie dwóch pojęć: user message i system message. Warto mieć to „w palcach”, bo one spełniają zupełnie inną funkcję.

2.1. User message – co użytkownik chce osiągnąć

User message to najzwyklejsza treść pytania lub polecenia, na które agent ma odpowiedzieć. Przykłady? Proszę bardzo:

  • „Dodaj mi wydarzenie do kalendarza na jutro 18:00.”
  • „Podaj najnowsze newsy o automatyzacji AI.”

To „żywe” polecenie – intencja osoby, która korzysta z agenta.

2.2. System message – instrukcja obsługi agenta

System message to dla AI coś na kształt instrukcji stanowiskowej. To tu definiujesz:

  • jaką rolę pełni agent,
  • jakiego tonu powinien używać,
  • z jakich narzędzi korzystać i kiedy,
  • na jakie szczególne ograniczenia musi zwracać uwagę,
  • w jakim formacie odpowiadać.

Zaręczam, że rozdzielając te dwa poziomy – user (życzenie) i system (reguły) – zmniejszasz liczbę dziwnych wpadek o połowę.

2.3. Skąd właściwie brać user message w n8n?

Jest kilka trików, które warto mieć na podorędziu:

  • Chat Trigger → AI Agent (domyślna opcja): Najczęściej AI Agent node automatycznie pobiera wiadomość z wcześniejszego węzła (np. chata) jako user message. To sprawia, że codzienna obsługa jest łatwa jak barszcz.
  • Ustawienie „Define below”: Jeśli po drodze przetwarzasz dane (np. przechodziłeś przez rozpoznanie mowy lub transformację tekstu), możesz wyraźnie wskazać, która część wejścia ma trafić jako user message do AI. Wpisujesz wtedy wyrażenie typu {{ $json.text }} i masz pewność, że żadne śmieci nie namieszają w komunikacji.

Ja sam już kilka razy wpadłem w pułapkę, kiedy przez przeoczenie agent dostawał nie to polecenie, które chciałem, tylko całą strukturę JSON albo surowe dane systemowe.

3. 5‑sekcyjny system prompt – klucz do przemyślanego agenta

To, co zmieniło moje workflow w n8n na lepsze, to budowanie system promptu w ścisłej strukturze. Układ pięciosekcyjny – wypracowany na własnych błędach – daje agentowi stabilne ramy działania. Dzięki temu wręcz 10x wzrasta przewidywalność AI i unikasz wiecznych problemów z niejednoznacznością.

  • Overview – stanowisko i zakres prac agenta
  • Tools – spis narzędzi dostępnych agentowi i reguły ich używania
  • Rules – zasady, których agent musi się trzymać
  • Examples – przykłady rozmów i oczekiwanych odpowiedzi
  • Output format (opcjonalnie) – jeśli zależy ci na typologii i strukturze odpowiedzi

3.1. Overview – szybka „umowa o pracę”

Tu w kilku zdaniach ustalasz, kim jest twój agent i czego się od niego oczekuje. Czysto, jasno, bez nadmuchanych ozdobników.

You are a professional research AI agent. Your role is to perform accurate, up-to-date research on any topic the user asks about. You must gather information using the Tavily search tool and then summarize the findings clearly, objectively, and professionally.

Czego nauczyłem się z praktyki? Że konkret (rola, zakres, styl) naprawdę daje modelowi punkt zaczepienia. Agent wie, gdzie są granice jego działania i jaka jest wartość nadrzędna (np. precyzja, aktualność).

3.2. Tools – jasno opisane instrumentarium

W tej sekcji rozpisujesz agentowi, jakimi narzędziami dysponuje i kiedy ma po nie sięgać. Agentowi trzeba to wyłożyć jak kawę na ławę, bo sam model nie wyczuje, że nowy tool jest lepszy niż jego domyślna wiedza.

  • Tool: Tavily search
  • Stosuj, gdy:
    • potrzebujesz aktualnych danych, newsów, trendów,
    • weryfikujesz fakty,
    • szukasz nowych źródeł.

Jeśli agent nie będzie miał tego czarno na białym, szybko zapomni o nowym narzędziu i zacznie polegać wyłącznie na tym, co „wie” z czasów trenowania modelu. Wtedy nici z automatyzacji newsowych czy trafnego researchu.

3.3. Rules – daj agentowi „ogrodzenie”, żeby nie brykał

Tutaj musisz precyzyjnie określić, czego agent NIE może zrobić, kiedy MUSI reagować, jakiego języka unikać i na jakiej argumentacji się opierać. Ja zwykle ustawiam:

  • Narzędzia muszą być użyte przy newsach, bieżących pytaniach itp.
  • Zabrania się opierania wyłącznie na wiedzy modelu, jeśli zapytanie dotyczy nowości.
  • Obowiązek wskazania co najmniej dwóch źródeł (jeśli są dostępne).
  • Styl: zawsze profesjonalny, neutralny, bez opinii czy domysłów.

Moim zdaniem te „płotki” robią różnicę między chaosem a agentem, na którym naprawdę możesz polegać.

3.4. Examples – sekcja o największym wpływie na skuteczność

Na własnej skórze przekonałem się, że to najważniejszy element całego promptu. Pokaż agentowi, jak wygląda prawidłowa interakcja! W praktyce wygląda to tak:

Input: Czy są nowe badania o microdosingu w leczeniu lęku w tym roku?
Proces: użyj Tavily, wyszukaj badania z ostatnich miesięcy, porównaj źródła, zacytuj publikacje oraz daty.
Output: 
- Summary: [krótkie podsumowanie w 2–3 zdaniach]
- Key insights: [lista najważniejszych wniosków, wypunktowana]
- Sources: [podaj publikacje, linki, daty]

Dodaj na koniec formułkę:


„Always use this output structure for all interactions.”


i masz gwarancję, że agent przestanie fundować niespodzianki.

  • Przy prostych agentach – jeden dobry przykład często wystarczy.
  • Przy bardziej rozgałęzionych – dwa, trzy, maksymalnie cztery pokazujące różne warianty.

Uważaj tylko, żeby nie przesadzić – za dużo przykładów i agent zaczyna się plątać, nie wiedząc, który z nich wybrać.

3.5. Output format – gdy ważna jest struktura odpowiedzi

Często spotykam się z potrzebą dalszego przetwarzania wyników AI w automatyzacji (np. wysyłka części odpowiedzi mailem, inna część idzie do bazy). Wtedy mistrzowsko sprawdza się wskazanie wymaganego formatu w system prompt.

  • Np. „Return your answer in Markdown with three sections: Summary, Key insights, Sources.”

W n8n możesz też uruchomić Structured Output – definiujesz JSON, np.:

{
  "summary": "string",
  "keyInsights": "string[]",
  "sources": "string[]"
}

Dzięki temu agent zwraca dane już w poskładanych polach, nie w jednym bloku tekstu – i automatyzacja przebiega znacznie sprawniej.

4. Markdown i pogrubienia – jak wycisnąć z promptu maksimum

Początkowo wydawało mi się, że markdown w system prompt to już sztuka dla sztuki. Nic bardziej mylnego! Modele językowe naprawdę wyłapują strukturę dzięki nagłówkom i pogrubieniom.

4.1. Nagłówki – logiczny podział promptu

  • # Overview
  • # Tools
  • # Rules
  • ## Examples
  • ## Output format

Jeden „hash” ( # ) oznacza główny segment; dwa hashe ( ## ) to podsekcje. Model widzi, gdzie są rozdziały, a gdzie szczegóły. Jeśli spróbujesz porównać logi z agenta przygotowanego z taką strukturą i bez niej – wierz mi, natychmiast zobaczysz różnicę w spójności wyników.

4.2. Pogrubienia – sygnały dotyczące zasad

Stosuję pogrubienia dla zasad, których agent ma absolutnie nie ignorować:

  • always use the Tavily search tool when…
  • do not invent sources or URLs
  • respond in Polish unless the user requests another language

Dzięki temu nawet przy skomplikowanych poleceniach model nie pomija kluczowych reguł.

5. Przykład: agent kalendarzowy „na czysto” w n8n

Weźmy na warsztat prostego agenta do obsługi Google Calendar.

  • Chat Trigger – odpala konwersację
  • AI Agent – spięty z modelem (np. OpenAI), z pamięcią, z jednym toolem: tworzenie wydarzeń w Google Calendar

5.1. Przebieg działania

  • Piszesz: „Dodaj kolację na jutro o 18:00”.
  • Wiadomość trafia do AI Agent.
  • Agent interpretuje datę („jutro” vs. konkretna data), uruchamia narzędzie do tworzenia wydarzenia, zapisuje je.
  • Odsyła potwierdzenie: „Dodałem wydarzenie 'Kolacja’ na [data], godz. 18:00 do twojego kalendarza.”

Co w system prompt?

  • Rola: twój asystent kalendarzowy, którego zadaniem jest automatyczne zarządzanie wydarzeniami kalendarza Google.
  • Narzędzie: masz dostęp wyłącznie do Google Calendar.
  • Reguły: zawsze używaj narzędzia do tworzenia wydarzeń, nigdy nie udawaj, że coś zrobiłeś. Zamieniaj zwroty typu „jutro”, „w poniedziałek” na konkretne daty.
  • Przykład:
        Input: Zaplanuj spotkanie z Kasią w poniedziałek o 9:00.
        Output: Dodałem wydarzenie 'Spotkanie z Kasią' na [dzień tygodnia], [data], godz. 9:00.
        

To robi robotę!

6. Multi-agent w n8n – jak nie pogubić się w automatyzacji na większą skalę

Kto pracował z większą liczbą narzędzi w jednym agencie ten wie, że po jakimś czasie zaczyna się robić bałagan. System prompt puchnie od zasad, rośnie liczba warunków, agent potrafi zamienić Gmail z Google Sheets, a debugowanie zamienia się w bieg z przeszkodami…

6.1. Rozwiązanie: multi-agent architecture

Tutaj sprawdza się architektura routera i sub-agentów. Zamiast wrzucać everything do jednego agenta, rozbijasz zadania na mniejsze kawałki:

  • Główny agent (router): dostaje polecenie użytkownika i klasyfikuje, czy dotyczy maili, arkuszy, czy czegoś innego.
  • Sub-agenci (per aplikacja): obsługują konkretne narzędzia (np. jeden tylko Gmail, drugi tylko Sheets).

Dzięki temu:

  • System prompt głównego agenta jest prosty: klasyfikuje i deleguje.
  • Każdy sub-agent ma jasne instrukcje dla jednej aplikacji.

Możesz dobudowywać kolejne sub-agenty w razie nowych potrzeb, bez przerabiania całego workflow.

6.2. System prompt dla głównego agenta – routera

Tu wpisujesz w overview:

You are a routing AI agent. Your job is to classify the user’s request as either email-related or spreadsheet-related and then route the task to the appropriate AI agent.

W sekcji tools:

  • Tool: Gmail Agent – handles all email-related tasks.
  • Tool: Google Sheets Agent – handles all spreadsheet-related tasks.

W rules:

  • Gdy polecenie dotyczy maili, kieruj do Gmail Agent.
  • Gdy chodzi o arkusze, deleguj do Sheets Agent.

To porządkuje komunikację, zmniejsza liczbę reguł do nauczenia się przez jeden model i minimalizuje ilość gaf.

7. Podsumowanie metody na 10× skuteczniejsze AI agilety

Jeśli mam wskazać drogę na skróty – która realnie przynosi efekty, a nie jest kolejnym pustym sloganem – to:

  • Zawsze rozdzielaj user i system message. Kontroluj, skąd model pobiera user message („Define below”, jeśli trzeba).
  • Buduj system prompt wg pięciu sekcji: Overview – Tools – Rules – Examples – Output format (opcjonalnie).
  • Dodaj chociaż jeden dobrze rozpisany przykład. Dzięki temu agent ma jasną instrukcję, jak „myśleć” i jak wygląda finalna odpowiedź.
  • Stosuj markdown i pogrubienia:
    • # i ## do logicznej segmentacji promptu,
    • pogrubienia tylko dla kluczowych instrukcji, nie dla wszystkiego jak leci.
  • Przy skomplikowanych workflowach rozważ architekturę multi-agent:
    • główny agent pełni rolę routera,
    • sub-agenci specjalizują się w jednej aplikacji.

Miałem już wiele przypadków, gdy wydawało mi się, że można „skręcić” prompt na oko, ale dopiero systematyczne podejście – jasna struktura, podział na sekcje, dobrze dobrane przykłady – sprawiły, że AI agent naprawdę nie wywijał numerów. Takie podejście daje zarówno spokój ducha, jak i realną przewidywalność automatyzacji.

A jeśli chcesz pogadać o szczegółach, wymienić się doświadczeniami czy skorzystać z kursów i wsparcia społeczności, sprawdź nasze możliwości wymiany wiedzy – bezpośredni kontakt i rozmowa z praktykami czasem oszczędza tygodnie szukania odpowiedzi po forach. Uważam, że inwestycja w dobry system prompt, niezależnie od tego, czy automatyzujesz dla siebie, czy budujesz rozwiązania dla klientów, szybko się zwraca. I tego Ci życzę – niech Twoje AI rozwiązania zawsze „wychodzą na swoje”!

Zostaw komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Przewijanie do góry