Jak napisać skuteczny prompt w n8n – praktyczny przewodnik
Automatyzacje z udziałem sztucznej inteligencji w n8n potrafią robić istną rewolucję w codziennej pracy – to coś, czego mam okazję doświadczać niemal na co dzień. Jednak kluczem do tego, by AI nie wylało dziecka z kąpielą, tylko trafiało w samo sedno naszych oczekiwań, jest umiejętne budowanie promptów. Prawidłowo sformułowany prompt działa trochę jak dobry przewodnik – wyznacza jasne granice, zachęca AI do wydajnej pracy i przekłada się na finalny efekt, który po prostu da się wykorzystać w biznesie.
Zdaję sobie sprawę, że dla wielu osób, które dopiero zaczynają odkrywać potencjał n8n, budowanie skutecznych promptów bywa wyzwaniem. Mam na swoim koncie wiele godzin spędzonych na testowaniu, modyfikowaniu i optymalizowaniu promptów do najróżniejszych zastosowań: od prostych formatowań tekstu po zaawansowane analizy danych sprzedażowych. Pozwól, że podzielę się z tobą najważniejszymi lekcjami, które sprawdzają się zarówno dla początkujących, jak i bardziej doświadczonych użytkowników.
Podstawy prompt engineeringu w n8n
Zanim zaczniesz budować nawet najprostszą automatyzację opartą o AI w n8n, warto zrozumieć, jak wygląda skuteczny prompt. Kluczowy jest tutaj jasny podział funkcji na trzy elementy: system prompt, user prompt oraz assistant prompt (czyli przykłady). W mojej praktyce to właśnie takie rozłożenie pozwala ograniczyć liczbę błędów i nieporozumień.
- System prompt – nadaje tożsamość modelowi AI (kim „jest” i jakie zadanie wykonuje).
- User prompt – formułuje konkretne instrukcje i określa cel zadania.
- Assistant prompt – podaje konkretne przykłady, które pokazują AI, czego oczekujesz w praktyce.
Każda z tych warstw pełni inną rolę i razem pracują na to, by efekty pracy AI były przewidywalne oraz powtarzalne. Nie ma róży bez kolców – jeśli pominiemy któryś z tych elementów, zwykle pojawia się więcej błędów lub odpowiedzi odbiegających od oczekiwań.
Dlaczego trzy warstwy są tak ważne?
Wyobraź sobie, że delegujesz zadanie nowemu pracownikowi. Jeśli podasz mu tylko suche polecenie („Zrób CV na nową ofertę pracy”), to efekt może mocno się różnić w zależności od jego „widzi mi się”. Jeśli natomiast określisz, w jakiej roli ma występować (np. jako ekspert ds. rekrutacji), jasno sformułujesz cel i dasz mu parę przykładów – szansa na powodzenie rośnie jak na drożdżach. U AI działa to bardzo podobnie!
System prompt – sztuka nadawania tożsamości AI
Właściwe zdefiniowanie roli AI już na wejściu to jeden z tych prostych trików, o których zapomina wielu początkujących. Z mojego doświadczenia wynika, że nadanie AI konkretnej osobowości bardzo poprawia spójność, styl i trafność wygenerowanych odpowiedzi.
You are an expert career coach and resume optimization assistant.
Tak sformułowany system prompt to coś więcej niż tylko uprzejmość; faktycznie „przełącza” model w tryb dopasowany do danego zadania. Często korzystam z różnych tożsamości: od analityków finansowych, przez konsultantów ds. sprzedaży, aż po copywriterów. W praktyce, AI nie tylko lepiej rozumie, czego od niej oczekujesz, ale również, kiedy przyjdzie jej improwizować, robi to w zgodzie z przyjętymi ramami.
- Przykład z życia: Gdy wrzucałem AI zadanie tworzenia opisów produktów, dawałem jej rolę „doświadczonego copywritera specjalizującego się w opisach e-commerce”. Efekty były nieporównywalnie lepsze niż wtedy, gdy tej informacji brakowało.
User prompt – tam, gdzie liczy się jasność i precyzja
Przekazywanie AI jasnych instrukcji to coś wręcz fundamentalnego. Wielokrotnie w praktyce widziałem, jak AI gubi się, gdy instrukcje są zbyt ogólne lub zbyt „miękkie”. Kiedy jednak obrysujemy zadanie solidnymi wytycznymi, wynik zaczyna być przewidywalny.
Goal: Tailor the user's resume to match the job description provided below. Instructions: Highlight relevant experiences and remove unrelated details. Optimize the language using strong action verbs and keep formatting simple and ATS friendly.
Nie zostawiaj miejsca na domysły ani na zbyt szerokie pole do popisu. AI – jak każdy z nas – lubi wiedzieć, na czym stoi. W kontekście automatyzacji w n8n wyjątkowo doceniam ten fakt, bo przy powtarzalnych procesach brak precyzji skutkuje czasochłonnymi poprawkami.
- Czytelny podział na cel, instrukcje i dane wejściowe, najlepiej jeszcze wyróżnić struktury w promptach (do czego wrócę jeszcze w wątku o Markdownie).
Assistant prompt – pokazuj „jak jest dobrze”
Dla AI wyznacznikiem jakości są przykłady: pokazujesz, jak wygląda poprawne wejście i oczekiwany wynik. To tzw. one-shot lub few-shot learning – zamiast zostawiać AI samą z instrukcją, pokazuję jej, jak robić to, czego od niej oczekuję.
User: jaNek
Assistant: {"formatted_name": "Janek"}
Takie podejście używam najczęściej w zadaniach, gdzie stawką jest spójność outputu oraz zgodność z wymogami technicznymi (np. formaty plików, standaryzacja tekstu). Z obserwacji: przy prostych zadaniach czasem wystarczy jeden przykład, ale już przy bardziej złożonych workflow warto dodać przynajmniej 3-5 różnych case’ów – wtedy AI „łapie”, czego się od niej oczekuje.
Kiedy warto dołożyć więcej przykładów?
- Gdy masz do czynienia z danymi o różnej strukturze.
- W workflow, gdzie występują wyraźnie różne przypadki brzegowe.
- Przy zadaniach, które mają wyłapywać niuanse językowe (np. rozpoznawanie ogonków czy kapitalizacji w języku polskim).
Im bardziej różnorodne przypadki przykładowe podasz, tym bardziej „elastyczne” staje się AI. Z drugiej strony, jeśli ograniczysz je wyłącznie do podobnych rekordów, model będzie miał tendencję do uśredniania wyników. Przetestowałem to wielokrotnie, zwłaszcza przy automatyzacji sprzątania i standaryzacji danych z różnych źródeł.
Optymalizowanie promptu – długość i liczba przykładów
Długość promptu a skuteczność AI
Tutaj, nie ma co owijać w bawełnę: dłuższe prompt = większe ryzyko chaosu. Testy pokazały wyraźnie, że już przy kilku setkach tokenów wzrasta niebezpieczeństwo „przegadania” i zatarcia jasności instrukcji. Duża ilość tekstu prowadzi do utraty precyzji odpowiedzi nawet o kilka procent (4% spadku jakości przy wzroście objętości promptu z 500 do 3000 tokenów).
Paradoksalnie – mniej znaczy więcej. Zawsze mam z tyłu głowy jedno pytanie: „Czy da się to napisać prościej?” Odpowiednio skrócony prompt jest łatwiejszy do przetworzenia dla modelu AI i skutkuje wyższą zgodnością outputu wobec oczekiwań.
Ile przykładów warto dodać?
Druga istotna rzecz to liczba przykładów. W przeciwieństwie do długości promptu, tutaj sprawdza się zasada: im więcej przykładów (tzw. few-shot learning), tym AI radzi sobie lepiej z rozpoznawaniem nowych sytuacji i przypadków granicznych. Szczególnie jeśli spodziewasz się bogatej różnorodności wejść, lepiej mieć kilka–kilkanaście przykładowych przypadków.
- Zero przykładów – AI działa na wyczucie, ryzyko błędów wzrasta.
- Jeden przykład – poprawa przewidywalności, ale czasem model „zawiesza się” na tym jednym schemacie.
- Few-shot (2–5 przykładów) – znacznie wyższa precyzja, model uczy się różnych wariantów outputu.
- Dużo przykładów (10–20) – skuteczne przy bardzo różnorodnych danych (np. imiona zawierające polskie znaki, skróty, nicki itp.).
Struktura promptu w praktyce – przykład z n8n
Zobaczmy, jak to wygląda w realnym workflow na przykładzie prostego zadania: formatowanie imion zapisanych wielką/małą literą w arkuszu Google Sheets.
1. Pobranie danych z Google Sheets
- Węzeł „Google Sheets: Get Rows” pobiera kolumnę z nieformatowanymi imionami.
2. Przekazanie imion do AI przez node OpenAI (lub inny model)
- W polu prompta definiuję system, user oraz kilka przykładów asystentów:
System: You are a helpful, intelligent name formatting assistant.
User prompt:
Goal: Format the given name so that only the first letter is capitalized.
Instructions: Use the input name and return it formatted as specified. Output as JSON: {"formatted_name": ""}
User: jaNek
Assistant: {"formatted_name": "Janek"}
User: aGnieszka
Assistant: {"formatted_name": "Agnieszka"}
User: MICHAŁ
Assistant: {"formatted_name": "Michał"}
User:
Assistant:
W powyższym przykładzie korzystam z *zmiennych* przekazywanych z poprzedniego kroku n8n – czyli te miejsca, w których pojawiają się curly brackety {} lub inny sposób wstawiania pól dynamicznych.
3. Zwrócenie outputu do Google Sheets
- Po uzyskaniu odpowiedzi od AI (w jasnym, standaryzowanym formacie np. JSON), aktualizuję odpowiedni wiersz w Google Sheets (węzeł Update Row). Dzięki wymuszonemu formatowi nie ma problemu z automatycznym przetwarzaniem dużej liczby rekordów.
Przy takim workflow ważne jest, by przykłady (user/assistant) były umieszczone zawsze tuż przed aktualnym wejściem. W AI stosuję zasadę: „ostatnie podane dane są najważniejsze”, dlatego układanie promptu w odpowiedniej kolejności chroni przed nieprzewidywalnymi „przeskokami”.
Formatowanie promptu w Markdown
Mam taką swoją prywatną zasadę, że nawet jeśli promptów nie piszę na setki linijek, to dzielę je na sekcje, używając nagłówków, pogrubień oraz czytelnej hierarchii. W tym celu często stosuję Markdown (nagłówki #, ##, **pogrubienia**). Zarówno dla ludzi, jak i dla AI, taka czytelność procentuje – łatwiej wdrożyć zmiany po kilku tygodniach, lepiej zarządza się promptami przy przekazywaniu projektu komuś innemu.
# Cel
Sformatuj imię tak, by tylko pierwsza litera była wielka.
## Instrukcje
- Wykorzystaj podane imię jako input.
- Wynik zwróć jako JSON.
## Przykłady
User: jaNek
Assistant: {"formatted_name": "Janek"}
Na marginesie – AI także szybciej i trafniej przetwarza prompt o przejrzystej strukturze. Często zauważam, że już samo dodanie nagłówków/hierarchii upraszcza życie nawet zaawansowanym użytkownikom.
Skalowanie prompt engineeringu w praktyce
Przy wdrażaniu automatyzacji dla większych zbiorów danych – np. dziesiątek tysięcy rekordów w Google Sheets – trzeba zadbać, by „sample” przykładów były różnorodne. Spotkałem się z sytuacją, gdzie zbyt homogeniczne przykłady prowadziły do sytuacji, gdy AI miało tendencję do ignorowania mniej typowych stanów wejściowych (np. imion z polskimi znakami lub skrótami).
Moja rada:
- regularnie przeglądaj prompt i aktualizuj pulę przykładów, gdy pojawią się nowe typy danych,
- nie bój się podmieniać przykładów lub robić osobnych promptów dla wyraźnie różnych przypadków,
- jeśli prompt zaczyna generować nietypowe lub chaotyczne wyniki, warto przeanalizować ostatnio dodane przykłady lub zredukować ich liczbę.

