Kuliberda Labs
kuliberda.ai

Jak AI myśli i zapamiętuje

To najważniejsza strona techniczna na tej witrynie. Jeśli masz przeczytać jedną rzecz przed rozmową z nami, niech to będzie właśnie ta.

Większość dostawców AI powie Ci, że ich system jest "inteligentny" i na tym zakończy. My uważamy, że zasługujesz na zrozumienie tego, co naprawdę dzieje się pod maską — nie dlatego, że musisz zostać inżynierem, ale dlatego, że znajomość tych pojęć zmienia sposób, w jaki oceniasz rozwiązania AI, jakie pytania zadajesz i czego oczekujesz od systemu szytego na miarę.

Dwa pojęcia liczą się najbardziej: rozumowanie (jak AI przetwarza Twoje zapytanie) i pamięć (co AI wie o Tobie i Twoim biznesie). Zrób je dobrze, a system działa. Zrób je źle, a masz drogie autouzupełnianie.


Jak AI "myśli" — rozumowanie w praktyce

AI nie myśli tak jak Ty. Nie ma opinii, uczuć ani świadomości. Ale przetwarza informacje w uporządkowany sposób, który daje użyteczne wyniki — a sposób przetwarzania ma większe znaczenie, niż większość ludzi zdaje sobie sprawę.

Łańcuch myślenia — pokaż swoją pracę

Gdy zadajesz proste pytanie ("Ile to 2 + 2?"), AI odpowiada od razu. Nie trzeba nic przetwarzać. Ale gdy zadajesz złożone pytanie ("Przejrzyj tę umowę i wskaż klauzule, które narażają nas na odpowiedzialność, jeśli dostawca nie dostarczy na czas"), AI musi przejść przez to krok po kroku.

To się nazywa rozumowanie w łańcuchu myślenia (chain of thought). AI rozbija problem na mniejsze kroki, przepracowuje każdy z nich i buduje odpowiedź końcową. Jak pokazywanie rozwiązania na lekcji matematyki — sam wynik jest mniej wartościowy niż tok rozumowania, który do niego doprowadził.

Dlaczego to ważne dla Ciebie: Gdy AI pokazuje swoje rozumowanie, możesz je zweryfikować. Jeśli krok 3 z 7 jest błędny, możesz to wyłapać. Jeśli AI daje Ci tylko końcową odpowiedź bez rozumowania, nie masz jak sprawdzić, czy doszło do niej przez solidną logikę, czy przez szczęśliwy traf.

Konfigurujemy nasze systemy tak, żeby pokazywały rozumowanie przy złożonych zadaniach. Nie dlatego, że to wygląda imponująco, ale dlatego, że dzięki temu błędy są widoczne i możliwe do skorygowania.

Modele rozumujące vs modele standardowe

Nie wszystkie modele AI rozumują w ten sam sposób. Jest istotna różnica między modelami zoptymalizowanymi pod szybkie odpowiedzi a modelami stworzonymi do głębokiej analizy.

Modele standardowe (jak Claude Haiku 4.5) są szybkie. Przetwarzają zapytanie błyskawicznie i dają odpowiedź w sekundach. Idealne do prostych zadań: napisanie krótkiego maila, odpowiedź na pytanie o fakty, sklasyfikowanie dokumentu do kategorii.

Modele rozumujące (jak Claude Opus 4.6) potrzebują więcej czasu, ale wchodzą głębiej. Rozpatrują wiele perspektyw, ważą dowody, radzą sobie z niuansami i tworzą bardziej gruntowną analizę. Lepsze do złożonych zadań: przegląd dokumentu prawnego, analiza raportu finansowego, debugowanie problemu technicznego czy rekomendacja na podstawie niepełnych danych.

Różnica w praktyce:

Pytasz model standardowy: "Czy powinniśmy odnowić umowę z Dostawcą X?"

Dostajesz: "Na podstawie dostarczonych informacji, odnowienie umowy wydaje się rozsądne, biorąc pod uwagę konkurencyjne ceny i ugruntowaną relację."

Pytasz model rozumujący o to samo, z tym samym kontekstem:

Dostajesz: "Trzy czynniki do rozważenia. Po pierwsze, klauzula automatycznego odnowienia umowy blokuje Was na kolejne 24 miesiące — jeśli chcecie renegocjować, okno zamyka się za 14 dni. Po drugie, kary za niedotrzymanie SLA w sekcji 8.3 są słabsze niż standard branżowy — ograniczają odpowiedzialność do jednomiesięcznej opłaty, nie do faktycznego kosztu przestoju. Po trzecie, historia terminowości dostawcy z ostatnich 12 miesięcy pokazuje 3 niedotrzymane terminy, wszystkie w Q4. Jeśli wyniki w Q4 są dla Was istotne, to wzorzec, nie anomalia. Rekomendacja: negocjujcie przed odnowieniem, skupcie się na karach SLA i warunkach automatycznego odnowienia."

To samo pytanie. Te same dane. Jedna odpowiedź jest powierzchowna. Druga daje konkretne wskazówki do działania.

Rozumowanie można skonfigurować

To coś, o czym większość ludzi nie wie: możesz kontrolować, jak głęboko AI analizuje problem. Nie jesteś skazany na jeden tryb.

Do rutynowych zadań (szkice maili, proste wyszukiwania, standardowe odpowiedzi) chcesz szybkości. AI powinno odpowiedzieć w sekundy, a nie przemyśliwać zbyt długo.

Do ważnych decyzji (przegląd umów, analiza finansowa, rekomendacje strategiczne) chcesz głębi. AI powinno poświęcić czas, rozważyć przypadki brzegowe i oznaczyć ryzyka.

Konfigurujemy to osobno dla każdego zadania w systemach, które budujemy. Ten sam system potrafi natychmiast odpowiedzieć na "Jaka jest nasza polityka zwrotów?" i poświęcić 30 sekund na analizę "Czy powinniśmy zaakceptować kontrpropozycję dostawcy?". Odpowiedni poziom rozumowania jest dobierany automatycznie na podstawie rodzaju zapytania.

Modele, których używamy, i dlaczego

Używamy wielu modeli od różnych dostawców — Claude (Anthropic), GPT-5.4 i Codex 5.3 (OpenAI), OpenClaw oraz opcje open-source. Każdy model ma inną mocną stronę: głębokie rozumowanie, szybkość, analiza kodu, przetwarzanie multimodalne czy prywatność on-premise. Dopasowujemy model do zadania, nie odwrotnie.

Wybór modelu to decyzja techniczna, którą podejmujemy podczas budowy. Nie musisz rozumieć różnic — ale powinieneś wiedzieć, że system nie działa na zasadzie "jeden rozmiar dla wszystkich". Właściwy model do właściwego zadania to część tego, co sprawia, że system szyty na miarę wypada lepiej niż ChatGPT prosto z pudełka.

Pełne zestawienie wszystkich modeli, których używamy, wraz z tabelą porównawczą, znajdziesz na stronie Nasze narzędzia i stack technologiczny.


Prompt systemowy — instrukcja obsługi AI

Każda interakcja z AI zaczyna się od czegoś, czego użytkownik nigdy nie widzi: promptu systemowego. To zestaw instrukcji, które AI czyta przed Twoją pierwszą wiadomością. Definiuje, kim AI jest, co wie, jak się zachowuje i jakich reguł przestrzega.

Pomyśl o tym jak o instrukcji obsługi dla nowego pracownika. Zanim będzie miał kontakt z pierwszym klientem, czyta instrukcję. Mówi mu ona o polityce firmy, jak obsługiwać reklamacje, jakiego języka używać, czego unikać i kiedy eskalować.

Bez promptu systemowego AI nie ma instrukcji. Domyślnie zachowuje się generycznie — jest pomocne, uprzejme, ale kompletnie nieświadome Twojego kontekstu. Z dobrze napisanym promptem systemowym AI zachowuje się tak, jakby pracowało w Twojej firmie od miesięcy.

Generyczny vs dopasowany prompt systemowy — to samo pytanie, dwa różne światy

Pytanie: Klient pisze maila z reklamacją dotyczącą opóźnionej dostawy.

AI bez promptu systemowego (generyczne):

"Dziękujemy za kontakt. Przepraszamy za niedogodności. Pana/Pani zgłoszenie zostało odnotowane i przyjrzymy się tej sprawie. Prosimy o cierpliwość, odpowiedź udzielimy w ciągu 3-5 dni roboczych."

To odpowiednik formularza. Nie mówi nic konkretnego. Nie zobowiązuje się do niczego. Nie odwołuje się do klienta po imieniu, do jego zamówienia ani do faktycznego problemu. Człowiek czytający to od razu wie, że nikt tak naprawdę nie przeczytał jego wiadomości.

AI z dopasowanym promptem systemowym:

"Cześć Ania, zarejestrowałem Twoje zgłoszenie opóźnionej dostawy jako sprawę #4521. Zgodnie z naszą polityką wysyłkową, zamówienia opóźnione o więcej niż 5 dni roboczych kwalifikują się do pełnego zwrotu pieniędzy lub przyspieszonej ponownej wysyłki bez dodatkowych kosztów — wybór należy do Ciebie. Oznaczyłem to w zespole logistyki. Otrzymasz aktualizację śledzenia lub rozwiązanie w ciągu 24 godzin. Jeśli wolisz zwrot pieniędzy, po prostu odpowiedz na tego maila, a przetworzę go od razu."

Ten sam model AI. To samo pytanie. Różnica to prompt systemowy.

Dopasowany prompt systemowy powiedział AI:

  • Używaj imienia klienta
  • Twórz numer sprawy w określonym formacie
  • Odwołuj się do faktycznej polityki wysyłkowej firmy
  • Oferuj konkretne opcje, które polityka dopuszcza
  • Zobowiąż się do konkretnego terminu
  • Ułatw klientowi kolejny krok

Co zawiera prompt systemowy

Dobrze zbudowany prompt systemowy zawiera:

Tożsamość i rola

  • Kim AI jest (agent obsługi klienta, wewnętrzny asystent, analityk)
  • Jaką firmę reprezentuje
  • Jaki ton stosuje (profesjonalny, przyjazny, techniczny, luźny)

Granice wiedzy

  • Co AI wie i może omawiać
  • Czego nie wolno mu omawiać (konkurencja, informacje poufne, tematy poza zakresem)
  • Co powinno przyznać, że nie wie, zamiast zgadywać

Reguły odpowiedzi

  • Maksymalna i minimalna długość odpowiedzi
  • Wymagane elementy (zawsze podaj numer sprawy, zawsze zakończ kolejnym krokiem)
  • Preferencje formatowania (punktory vs akapity, formalnie vs nieformalnie)

Reguły eskalacji

  • Kiedy przekazać sprawę człowiekowi
  • Jak przekazać (format wiadomości, gdzie skierować)
  • Co stanowi problem pilny, a co standardowy

Obsługa błędów

  • Co robić, gdy pytanie nie pasuje do żadnej znanej kategorii
  • Jak odpowiadać, gdy brakuje informacji
  • Jak radzić sobie ze sprzecznymi instrukcjami

Dlaczego to ma znaczenie biznesowe

AI bez dobrego promptu systemowego to jak pracownik bez onboardingu. Jest inteligentny. Jest zdolny. Ale nie zna Twoich zasad, Twoich klientów ani Twoich standardów. Będzie dawać sensownie brzmiące odpowiedzi, które są błędne w Twojej konkretnej sytuacji.

Każda złotówka wydana na AI bez inwestycji w prompt systemowy jest częściowo zmarnowana. Model to silnik, ale prompt systemowy to kierownica. Potężny silnik bez kierownicy nie dowiezie Cię tam, dokąd chcesz jechać.

Piszemy prompty systemowe jako część każdego wdrożenia. Nie są dodatkiem ani szablonem. Są pisane na miarę, na podstawie Twoich faktycznych procesów, Twoich faktycznych przykładów komunikacji i Twoich faktycznych przypadków brzegowych.


Czym jest CLAUDE.md — plik tożsamości

Tu zaczyna się to, co jest specyficzne dla sposobu, w jaki budujemy w Kuliberda Labs.

CLAUDE.md to plik konfiguracyjny, który tworzymy dla każdego systemu klienta. To dokument główny definiujący, kim AI jest w kontekście Twojej firmy. Jeśli prompt systemowy to podręcznik pracownika, CLAUDE.md to kompletne dossier pracownika — jego szkolenie, wiedza, osobowość, zasady, wszystko w jednym miejscu.

Co zawiera CLAUDE.md

Ton komunikacji i styl

  • Jak formalnie lub luźno AI powinno się komunikować
  • Słowa i zwroty do używania (dopasowane do głosu Twojej marki)
  • Słowa i zwroty do unikania (nazwy konkurencji, zabroniona terminologia, wewnętrzny żargon, którego klienci nie powinni widzieć)
  • Przykłady idealnych odpowiedzi, które AI powinno naśladować

Wiedza o firmie

  • Produkty i usługi z opisami, cenami i warunkami
  • Częste pytania klientów i ich prawidłowe odpowiedzi
  • Polityki firmy, procedury i drzewa decyzyjne
  • Dane kontaktowe i ścieżki eskalacji

Reguły zachowania

  • Co AI robi, gdy zostanie zapytane o coś poza swoim zakresem
  • Jak obsługuje zdenerwowanych lub sfrustrowanych klientów
  • Kiedy proponuje alternatywy, a kiedy po prostu odpowiada
  • Jakie maksymalne czasy reakcji może obiecać

Czego unikać

  • Tematy, w które AI nie może się angażować
  • Twierdzenia, których AI nie może wygłaszać (gwarancje, porady prawne, porady medyczne)
  • Wzorce formatowania do unikania (ściany tekstu, nadmierne użycie punktorów)

To nie jest "trening"

Ważne rozróżnienie: CLAUDE.md to nie dane treningowe. AI nie uczy się z niego tak, jak człowiek uczy się z doświadczenia. Czyta plik i wykonuje instrukcje — tak samo jak czyta prompt systemowy.

Dlaczego to ważne: Trenowanie modelu AI trwa tygodnie, kosztuje tysiące i daje nieprzewidywalne wyniki. Aktualizacja CLAUDE.md trwa minuty, nic nie kosztuje i daje natychmiastowe rezultaty.

  • Zmiana cennika? Edytuj plik. AI podaje nową cenę przy następnej interakcji.
  • Premiera nowego produktu? Dodaj go do pliku. AI wie o nim natychmiast.
  • Nowa polityka? Zaktualizuj reguły. Obowiązuje od zaraz.
  • Godziny świąteczne? Dodaj notatkę. AI informuje klientów od razu.
  • Zauważony zły wzorzec odpowiedzi? Dodaj regułę, żeby go unikać. Naprawione od następnej rozmowy.

Nie ma cyklu ponownego trenowania. Nie trzeba czekać na nową wersję modelu. Nie ma ryzyka, że aktualizacja zepsuje coś, co wcześniej działało. Zmieniasz plik i zachowanie się zmienia.

Wersjonowane i czytelne dla człowieka

Każdy plik CLAUDE.md, który tworzymy, jest przechowywany w systemie kontroli wersji. To oznacza:

  • Pełna historia zmian. Widzisz dokładnie, co zostało zmienione, kiedy i dlaczego. Jeśli odpowiedź nagle wydaje się dziwna, możesz sprawdzić, co się zmieniło w konfiguracji i cofnąć to.
  • Cofnięcie do dowolnej wersji. Nowa aktualizacja powoduje problemy? Wróć do wczorajszej wersji w kilka sekund.
  • Ścieżka audytu. Dla branż regulowanych możesz wykazać dokładnie, jakie instrukcje AI wykonywało w dowolnym momencie.

I co kluczowe: CLAUDE.md jest napisany prostym językiem. Nie kodem. Nie w formacie własnościowym. Nie jako czarna skrzynka. Możesz otworzyć plik, przeczytać go i zrozumieć każdą instrukcję, którą AI wykonuje. Nie potrzebujesz programisty, żeby go przeczytać. Nie potrzebujesz nas, żebyśmy go wyjaśnili.

To jest celowe. Powinieneś wiedzieć, co Twój system AI robi. Powinieneś móc przejrzeć jego zasady tak samo, jak przeglądasz opis stanowiska pracownika. Bez tajemnic.

Jak budujemy CLAUDE.md dla Twojej firmy

Nie generujemy CLAUDE.md z szablonu. Budujemy go na podstawie:

  1. Twojej faktycznej komunikacji. Przeglądamy prawdziwe maile, prawdziwe zgłoszenia do supportu, prawdziwe interakcje z klientami. Wydobywamy Twój głos, Twoje wzorce, Twoją logikę decyzyjną.
  2. Twoich faktycznych procesów. Dokumentujemy drzewa decyzyjne, które stosuje Twój zespół. Kiedy reklamacja dostaje zwrot? Kiedy dostaje przeprosiny? Kiedy jest eskalowana? Te reguły trafiają do pliku.
  3. Twoich faktycznych przypadków brzegowych. Pytamy: jakie dziwne sytuacje przysparzają problemów nowym pracownikom? Klient, który zawsze prosi o rabat? Produkt wymagający zastrzeżenia? Region z innymi zasadami wysyłki? To trafia do pliku.
  4. Iteracyjne doskonalenie. Po uruchomieniu przeglądamy realne interakcje i dopracowujemy. Pierwsza wersja jest dobra. Dziesiąta jest doskonała. To jest częścią wsparcia po wdrożeniu.

Pamięć: sesyjna vs trwała

Tu większość ludzi traci orientację w kwestii AI. I tu leży największa szansa dla systemów szytych na miarę.

Pamięć sesyjna — okno rozmowy

W ramach jednej rozmowy AI pamięta wszystko, co zostało powiedziane. Podajesz swoje imię na początku, a AI używa go przez całą rozmowę. Opisujesz problem w wiadomości pierwszej, nawiązujesz do niego w wiadomości piątej, a AI łączy fakty.

To jest pamięć sesyjna. Działa tak samo jak spotkanie. Wszyscy obecni pamiętają, co zostało powiedziane 10 minut temu.

Ale tu jest kluczowy punkt: gdy rozmowa się kończy, pamięć znika. Kompletnie. Następna rozmowa zaczyna się od zera. AI nie wie, że rozmawialiście wczoraj. Nie pamięta Twojego imienia, Twojego projektu, Twoich preferencji ani decyzji, którą podjąłeś.

To jak spotkanie bez notatek. Gdy jesteś w pokoju, wszystko jest świeże. W momencie, gdy wychodzisz, wszystko, co omówiono, znika. Wracasz jutro i jest tak, jakby spotkanie nigdy się nie odbyło.

To jest domyślne zachowanie każdego modelu AI. ChatGPT, Claude, Gemini — od razu po uruchomieniu wszystkie mają to ograniczenie. Niektóre dodały podstawowe funkcje pamięci, ale są powierzchowne (zapamiętanie Twojego imienia, lokalizacji, kilku preferencji). Nie zapamiętują istoty Twojej pracy.

Dlaczego to ma znaczenie

Do zastosowań okazjonalnych pamięć sesyjna wystarczy. Pytasz ChatGPT, dostajesz odpowiedź, idziesz dalej.

Do zastosowań biznesowych to dyskwalifikacja. Wyobraź sobie:

  • Twój asystent AI pomaga klientowi w poniedziałek. We wtorek ten sam klient wraca, a AI nie ma pojęcia, kim jest ani o czym rozmawiali. Klient musi wszystko tłumaczyć od nowa.
  • Spędzasz godzinę, konfigurując zachowanie AI w trakcie rozmowy. Następna sesja — cała konfiguracja zniknęła.
  • AI podaje klientowi błędną informację. Poprawiasz. Następna sesja — podaje tę samą błędną informację kolejnemu klientowi.

To nie jest hipotetyczny scenariusz. To się dzieje z domyślnym AI. I dlatego istnieją systemy szyte na miarę.

Pamięć trwała — memory.md

Rozwiązaniem jest plik, który nazywamy memory.md. To ustrukturyzowany dokument, który AI czyta na początku każdej sesji. Zawiera wszystko, co AI musi "pamiętać" o Tobie, Twojej firmie i Twojej pracy.

Co zawiera memory.md:

  • Preferencje użytkownika — styl komunikacji, preferencje formatowania, częste zapytania
  • Kontekst firmy — produkty, ceny, struktura zespołu, kluczowi klienci, bieżące projekty
  • Wcześniejsze decyzje — co zostało ustalone w poprzednich sesjach, dlaczego i jakie były wyniki
  • Wnioski z poprzednich sesji — poprawki, odkryte przypadki brzegowe, wzorce do stosowania lub unikania
  • Aktywne zadania i statusy — co jest w toku, co jest zablokowane, co zostało ukończone

Jak to działa w praktyce:

  1. Sesja się zaczyna
  2. Zanim Twoja pierwsza wiadomość zostanie przetworzona, AI czyta memory.md
  3. AI ma teraz pełny kontekst: kto jesteś, nad czym pracujesz, co zostało wcześniej ustalone, czego unikać
  4. W trakcie sesji nowe informacje są odnotowywane
  5. Na koniec sesji memory.md jest aktualizowany o istotne nowe informacje
  6. Następna sesja — zaktualizowana pamięć jest wczytywana

Efekt: AI "pamięta" Cię między sesjami, mimo że technicznie za każdym razem startuje od zera. Dla Ciebie odczucie jest ciągłe. AI kontynuuje od miejsca, w którym skończyło. Bez ponownego tłumaczenia. Bez utraconego kontekstu. Bez powtarzanych błędów.

Analogia z dokumentem briefingowym

Pomyśl o memory.md jak o dokumencie briefingowym dla konsultanta. Przed każdym spotkaniem z klientem konsultant czyta brief:

  • Kim jest klient? Czym się zajmuje?
  • Co już omawialiśmy? Co zostało ustalone?
  • Jakie są otwarte kwestie? Co jest bieżącym priorytetem?
  • Jakie są wrażliwe punkty? (Obawy budżetowe, presja czasowa, wcześniejsze złe doświadczenia)

Konsultant, który przeczytał brief, wchodzi na spotkanie gotowy do pracy od pierwszej minuty. Konsultant, który nie przeczytał briefu, spędza pierwsze 20 minut na nadrabianiu, podczas gdy klient jest coraz bardziej sfrustrowany.

Z Twoim systemem AI jest tak samo. Z pamięcią jest przygotowany od pierwszego słowa. Bez pamięci każda interakcja zaczyna się od zera.

Pamięć jest utrzymywana, nie nieskończona

Memory.md nie rośnie w nieskończoność. Bez kontroli stałby się niezorganizowanym bałaganem notatek, z którego AI miałoby problem skorzystać. Utrzymujemy go:

  • Kompakcja — stare, rozwiązane kwestie są archiwizowane. Aktywne kwestie pozostają aktualne.
  • Organizacja — informacje są uporządkowane tematycznie, nie zrzucone chronologicznie.
  • Filtrowanie trafności — nie wszystko z każdej sesji musi przetrwać. Zachowujemy to, co ważne, a resztę odpuszczamy.
  • Kontrola wersji — tak samo jak CLAUDE.md, każda zmiana jest śledzona i odwracalna.

To jest częścią bieżącego zarządzania systemem. Pamięć pozostaje czysta, zorganizowana i użyteczna.


Okno kontekstowe jako "pamięć robocza"

Jest pojęcie techniczne, które bezpośrednio wpływa na użyteczność systemu AI: okno kontekstowe. To ilość tekstu, którą AI może przetworzyć jednocześnie podczas jednej interakcji.

Pomyśl o nim jak o pamięci roboczej — ilość informacji, którą AI może trzymać "w głowie" podczas pracy nad Twoim zapytaniem. Małe okno kontekstowe oznacza, że AI może rozważyć tylko niewielką ilość informacji. Duże okno kontekstowe oznacza, że może rozważyć znacznie więcej.

Co oznaczają liczby

  • Claude Opus 4.6: 1 milion tokenów — w przybliżeniu 750 000 słów, czyli około 2 500 stron A4
  • GPT-5.4: 1 milion tokenów — porównywalny zakres
  • Claude Sonnet 4.6: 200 000 tokenów — w przybliżeniu 150 000 słów

Żeby to zobrazować:

  • Cały podręcznik pracownika Twojej firmy: pewnie 50-100 stron
  • Pełny katalog produktów z opisami: pewnie 20-50 stron
  • Kompletna struktura cenowa ze wszystkimi warunkami: pewnie 5-10 stron
  • Wszystkie szablony maili i wytyczne dotyczące odpowiedzi: pewnie 10-20 stron
  • Rok zgłoszeń klientów: może 500-1000 stron

Przy oknie kontekstowym na 1 milion tokenów cała baza wiedzy Twojej firmy mieści się w jednej sesji. AI nie musi szukać informacji — może trzymać je wszystkie naraz. Twoje ceny, Twoje polityki, historia klienta, szczegóły produktów, Twoje procedury — wszystko wczytane, wszystko dostępne, wszystko brane pod uwagę przy generowaniu odpowiedzi.

Dlaczego to ma znaczenie w praktyce

Gdy pytasz AI "Co powinienem powiedzieć temu klientowi o zmianie cennika?", system z dużym oknem kontekstowym może jednocześnie rozważyć:

  • Twoją aktualną strukturę cenową
  • Poprzednią strukturę cenową
  • Warunki umowy tego konkretnego klienta
  • Historię komunikacji z klientem
  • Politykę Twojej firmy dotyczącą powiadomień o zmianach cen
  • Szablony, których zazwyczaj używasz
  • Wcześniejsze decyzje w podobnych sytuacjach

Wszystko naraz. Bez wyszukiwania. Bez przełączania między dokumentami. Wszystko jest dostępne w pamięci roboczej.

To jest świeży rozwój sytuacji. Na początku 2023 roku standardowe okno kontekstowe miało 4 000-8 000 tokenów (kilka stron). Pod koniec 2023 wiodące modele osiągnęły 128 000 tokenów. Teraz 1 milion tokenów jest dostępny u wielu dostawców. Ten skok zmienia to, co jest możliwe. Systemy, które wcześniej wymagały złożonych pipeline'ów wyszukiwania, mogą teraz po prostu wczytać wszystko do kontekstu i pracować z tym bezpośrednio.

Jak wykorzystujemy duże okna kontekstowe

Projektujemy systemy, żeby to wykorzystać. Zamiast budować złożone systemy wyszukiwania, które znajdują istotne informacje (a czasem je pomijają), wczytujemy pełny kontekst tam, gdzie to możliwe. Twój asystent AI nie szuka Twojego cennika — już go ma wczytany. Nie wyszukuje historii klienta — historia jest już w kontekście.

Dla systemów, gdzie łączna wiedza przekracza okno kontekstowe (duże bazy wiedzy, obszerne biblioteki dokumentów), łączymy bezpośrednie wczytywanie z celowanym wyszukiwaniem. Najważniejsze informacje są zawsze w kontekście. Reszta jest przeszukiwalna i dociągana w razie potrzeby.


Dlaczego to ma znaczenie dla Twojego biznesu

Połączmy to wszystko i popatrzmy, co to oznacza w praktyce.

Każda sesja zaczyna się z pełnym kontekstem

Gdy ktoś wchodzi w interakcję z Twoim systemem AI, system wczytuje:

  1. Prompt systemowy (zasady działania)
  2. CLAUDE.md (tożsamość, wiedza, zachowanie)
  3. memory.md (historia, preferencje, aktywne sprawy)
  4. Odpowiednie dokumenty z Twojej bazy wiedzy

Od pierwszego słowa AI wie, z kim rozmawia, czym zajmuje się firma, jakie obowiązują zasady i co się wydarzyło wcześniej. Nie ma okresu rozgrzewki. Nie ma "poznawania się". Nie ma niezręczności pierwszego dnia w pracy.

Aktualizacje są natychmiastowe

Twój cennik zmienia się w przyszły poniedziałek. W poniedziałek rano aktualizujesz cennik w CLAUDE.md. Od tego momentu każda interakcja używa nowego cennika. Bez ponownego trenowania. Bez czekania na aktualizację modelu. Bez zgłaszania ticketu u dostawcy.

Twoja firma wprowadza nowy produkt w marcu. W lutym dodajesz szczegóły produktu do bazy wiedzy. W dniu premiery aktualizujesz prompt systemowy, żeby uwzględniał go w odpowiednich odpowiedziach. Gotowe.

Reklamacja klienta ujawnia lukę w wiedzy Twojego AI — nie wiedziało, że Twoja polityka zwrotów ma wyjątek dla zamówień na miarę. Dodajesz wyjątek do CLAUDE.md. Piętnaście sekund później AI obsługuje zwroty zamówień na miarę prawidłowo.

Szybkość zmiany to szybkość edycji pliku tekstowego.

Bez czasu na trening, bez kosztu treningu

Tradycyjna personalizacja AI polega na fine-tuningu — karmieniu modelu tysiącami przykładów i pozwalaniu mu uczyć się wzorców. To trwa tygodnie, kosztuje tysiące i daje wyniki, które trudno przewidzieć i trudno skorygować.

Nasze podejście nie używa fine-tuningu. Modele, których używamy (Claude, GPT-5.4) są już niezwykle zdolne. Nie muszą "uczyć się" Twojego biznesu. Muszą dostać informacje o Twoim biznesie w jasnych instrukcjach.

Różnica:

  • Fine-tuning: tygodnie na przygotowanie danych, dni na trening, nieprzewidywalne wyniki, droga iteracja, blokada na jedną wersję modelu
  • Personalizacja oparta na promptach: godziny na napisanie konfiguracji, natychmiastowe wyniki, przewidywalne zachowanie, darmowa iteracja, działa z dowolną wersją modelu

Wybraliśmy to podejście świadomie. Jest szybsze, tańsze, bardziej przewidywalne i daje Ci większą kontrolę.

System staje się mądrzejszy z czasem

Nie dlatego, że model się poprawia (choć tak, okresowo). Dlatego, że konfiguracja się poprawia.

Po pierwszym tygodniu realnego użytkowania przeglądamy interakcje:

  • Gdzie AI dało nieoptymalną odpowiedź? Dopracowujemy prompt.
  • Jakie pytania zadali klienci, na które AI nie mogło odpowiedzieć? Dodajemy informacje.
  • Gdzie ton AI nie pasował do marki? Korygujemy kalibrację głosu.
  • Jakie przypadki brzegowe się pojawiły, których nie przewidzieliśmy? Dodajemy reguły obsługi.

Po miesiącu system obsługuje 95% przypadków prawidłowo. Po trzech miesiącach — 99%. Poprawa to nie magia — to systematyczne doskonalenie oparte na realnych danych.

Nie jesteś uwięziony

Wszystko, co budujemy, jest w czytelnych plikach, które należą do Ciebie:

  • CLAUDE.md — prosty język, czytelny dla każdego
  • memory.md — ustrukturyzowane notatki, czytelne dla każdego
  • Prompty systemowe — prosty język, czytelny dla każdego
  • Baza wiedzy — Twoje dokumenty w standardowych formatach

Jeśli zdecydujesz się zmienić dostawcę, wszystko to jest przenoszalne. Wiedza nie jest zamknięta w formacie własnościowym. Nie jest osadzona w modelu, do którego nie masz dostępu. Jest w plikach na Twoim systemie, które działają z dowolnym modelem AI.

Nie wierzymy w vendor lock-in. Jeśli nasza praca jest dobra, zostajesz, bo system działa. Jeśli nie jest dobra, powinieneś móc zabrać swoją konfigurację i przenieść się. To jest uczciwe.


Modele językowe popełniają błędy — i to jest normalne

Modele AI halucynują. Generują informacje, które brzmią poprawnie, ale takie nie są. To nie jest wada — to fundamentalna właściwość technologii, tak jak ludzie mają lepsze i gorsze dni. Różnica w przypadku AI polega na tym, że zmienną jest kontekst i jakość danych, nie nastrój.

Pytanie nie brzmi "czy AI popełnia błędy?" — popełnia. Pytanie brzmi "jak wyłapujesz te błędy, zanim trafią do klienta?"

Nasza odpowiedź: wieloetapowy przepływ weryfikacji wbudowany w każdy system, który dostarczamy. Każdy wynik jest generowany, sprawdzany pod kątem faktów względem materiałów źródłowych, krzyżowo weryfikowany i recenzowany, zanim trafi do Ciebie. Klient zawsze dostaje jakość premium — nie dlatego, że AI jest idealne, ale dlatego, że nasz proces wyłapuje niedoskonałości.

Pełne wyjaśnienie działania halucynacji i naszego 4-etapowego procesu weryfikacji znajdziesz na stronie Modele językowe: jak działają.


Podsumowanie

  • Rozumowanie określa, jak głęboko AI analizuje Twoje zapytanie. Konfigurujemy odpowiednią głębię dla każdego zadania.
  • Prompty systemowe to instrukcja obsługi AI. Dobry prompt zamienia generyczne AI w użyteczne narzędzie biznesowe.
  • CLAUDE.md to plik tożsamości, który budujemy dla Twojej firmy. Prosty język. Kontrola wersji. Natychmiastowa aktualizacja.
  • Pamięć (memory.md) sprawia, że AI pamięta Cię między sesjami. Koniec z zaczynaniem od zera za każdym razem.
  • Okna kontekstowe determinują, ile informacji AI może utrzymać jednocześnie. Nowoczesne modele mogą utrzymać cały kontekst Twojego biznesu.
  • Aktualizacje są natychmiastowe. Edytuj plik, zmień zachowanie. Bez ponownego trenowania.
  • Wszystko należy do Ciebie. Czytelne pliki, standardowe formaty, zero vendor lock-in.

Jeśli chcesz zobaczyć, jak to wygląda dla Twojego konkretnego biznesu, zacznij od odkrywania. Zmapujemy Twoją sytuację i powiemy Ci, co ma sens.


Pytania?

Napisz na dawid@kuliberda.ai. Odpowiadamy na każdą wiadomość, zazwyczaj w ciągu 24 godzin.