Kuliberda Labs
kuliberda.ai

Najczęściej zadawane pytania

Odpowiedzi na pytania, które dostajemy często. Jeśli Twojego pytania tu nie ma, napisz na dawid@kuliberda.ai.


Czym jest agent AI?

Agent AI to program, który otrzymuje cel, decyduje jakie kroki podjąć, wykonuje te kroki korzystając z dostępnych narzędzi (wyszukiwanie, dostęp do plików, API) i zwraca wynik bez konieczności kierowania każdą pojedynczą akcją przez człowieka.

Asystent odpowiada na Twoje pytanie. Agent realizuje Twoje zadanie.

Większość tego, co budujemy, plasuje się pomiędzy: systemy obsługujące zdefiniowany proces od początku do końca, z człowiekiem przeglądającym wynik zamiast nadzorującym każdy krok.


Czym jest pamięć w systemie AI?

Pamięć to sposób, w jaki system AI przechowuje informacje między sesjami.

Bez pamięci każda rozmowa zaczyna się od zera. System nie ma kontekstu o poprzednich interakcjach, Twoich preferencjach ani Twojej historii. To jak rozmowa z kimś z kompletną amnezją za każdym razem, gdy się spotykacie.

Z pamięcią system może odwoływać się do wcześniejszych rozmów, z czasem uczyć się Twoich preferencji i budować kontekst przyrostowo. Pamięta, że wolisz krótkie raporty, że Klient X zawsze ma specjalne wymagania, że polityka zmieniła się w zeszłym miesiącu.

Implementujemy dwa typy:

  • Pamięć sesji: Kontekst w ramach jednej rozmowy. System pamięta, co zostało powiedziane wcześniej w bieżącej sesji.
  • Pamięć trwała: Ustrukturyzowane przechowywanie, które przetrwa między sesjami. System pamięta rzeczy sprzed tygodnia, miesiąca czy roku.

Pamięć trwała wymaga świadomych decyzji projektowych o tym, co jest przechowywane, jak jest indeksowane i kto ma do tego dostęp. Omawiamy to szczegółowo podczas fazy specyfikacji. Więcej o tym, jak działają rozumowanie i pamięć w systemach AI, znajdziesz w Rozumowanie i pamięć.


Czym różni się asystent AI od ChatGPT?

ChatGPT to AI ogólnego przeznaczenia. Wie dużo o wielu rzeczach, ale nic konkretnego o Twoim biznesie, Twoich klientach, Twoich dokumentach czy Twoim tonie.

Niestandardowy asystent AI jest zbudowany na Twoim konkretnym kontekście: Twoje produkty, Twój cennik, jak komunikujesz się, jakie są Twoje polityki i co robić, gdy pojawią się przypadki graniczne.

Oto praktyczny przykład. Pytasz ChatGPT: „Jaka jest nasza polityka zwrotów dla klientów enterprise?" ChatGPT nie zna Twojej polityki zwrotów. Da Ci ogólną odpowiedź o politykach zwrotów w ogóle albo wymyśli taką, która brzmi wiarygodnie.

Twój niestandardowy asystent, zbudowany na Twoich faktycznych dokumentach politykowych, odpowiada: „Klienci enterprise na planie Plus mają 60-dniowe zwroty z pełnym zwrotem pieniędzy. Standardowi klienci enterprise mają 30-dniowe zwroty. Oba wymagają oryginalnego numeru zamówienia. Wyjątki dla wadliwych produktów są obsługiwane zgodnie z sekcją 4.2 umowy enterprise."

ChatGPT daje rozsądną odpowiedź. Niestandardowy asystent daje prawidłową odpowiedź dla Twojej sytuacji, w Twoim tonie, zgodnie z Twoimi zasadami.


Co oznacza „działający system"?

System, który obsługuje docelowy proces od początku do końca na rzeczywistych danych wejściowych bez konieczności ręcznej interwencji na każdym kroku.

To oznacza:

  • Działa na Twoich faktycznych dokumentach, nie na danych demonstracyjnych
  • Obsługuje przypadki graniczne, które zidentyfikowaliśmy w specyfikacji
  • Produkuje wyniki spełniające kryteria akceptacji, na które się zgodziliśmy przed rozpoczęciem budowy
  • Twój zespół może go obsługiwać bez kontaktowania się z nami w codziennym użytkowaniu

To nie oznacza:

  • Zero błędów (dokumentujemy znane ograniczenia)
  • Idealna wydajność na danych wejściowych poza granicami specyfikacji
  • Samoobsługa lub samoulepszanie bez nadzoru człowieka

Co muszę przygotować, zanim zaczniemy?

Przed Discovery:

  • Jasny opis procesu, który chcesz zautomatyzować lub usprawnić — spisany, nie tylko „pogadamy o tym"
  • Dostęp do 5-10 rzeczywistych przykładów (faktyczne emaile, dokumenty, raporty — nie wypolerowane wersje). Im bardziej chaotyczne i reprezentatywne, tym lepiej.
  • Lista narzędzi, których obecnie używasz w tym procesie (klient poczty, CRM, przechowywanie, zarządzanie projektami itp.)
  • 60 minut nieprzerwanego czasu. Bez multitaskingu podczas sesji.

Przed budową:

  • Podpisana specyfikacja
  • Dane dostępowe do odpowiednich systemów (powiemy Ci dokładnie, czego potrzebujemy)
  • Wyznaczona osoba kontaktowa, która może testować i dawać feedback w ciągu 48 godzin

Najczęstszy błąd: przychodzenie na Discovery z mglistym pomysłem zamiast konkretnymi przykładami. „Chcemy zautomatyzować emaile" to za mało. „Oto 50 emaili z ostatniego miesiąca, oto jak je obecnie klasyfikujemy i oto gdzie się to rozpada" — tego potrzebujemy.


Ile trwa projekt?

Zależy od poziomu:

  • AI Guide (Tier 1): Jedna sesja (90 minut) plus pisemna ocena w ciągu 48 godzin. Łącznie: poniżej tygodnia.
  • Asystent AI (Tier 2): 2-4 tygodnie od podpisanej specyfikacji.
  • Automatyzacja procesów (Tier 3): 4-8 tygodni od podpisanej specyfikacji.
  • System AI (Tier 4): 8-16 tygodni od podpisanej specyfikacji.

Te harmonogramy obejmują nasz czas budowy, Twój czas testowania i cykle iteracji. Zaczynają się, gdy specyfikacja jest podpisana i początkowy dostęp zapewniony.

Jeśli czekamy na Twoją stronę dłużej niż 5 dni roboczych, harmonogram przesuwa się odpowiednio. Szybki feedback utrzymuje projekty w ryzach. Opóźniony feedback opóźnia dostarczenie.


Co się dzieje po dostarczeniu projektu?

Otrzymujesz pakiet przekazania z pełną dokumentacją i okresem wsparcia na błędy:

  • Tier 2: 30 dni wsparcia na błędy
  • Tier 3: 30 dni wsparcia na błędy
  • Tier 4: 60 dni wsparcia na błędy

Po okresie wsparcia system jest Twój do obsługi. Twój zespół ma dokumentację, szkolenie i kod.

Dla klientów, którzy chcą bieżącego wsparcia po okresie początkowym, oferujemy Retainer na utrzymanie (2 000-4 000 PLN/miesiąc). Obejmuje aktualizacje promptów, aktualizacje modeli, zmiany integracji, monitoring wydajności i priorytetowe wsparcie. Miesiąc po miesiącu, rezygnacja w dowolnym momencie z 30-dniowym wypowiedzeniem. Szczegóły na stronie usług.


Czy AI może popełniać błędy?

Tak. Każdy system AI popełnia błędy. To nie jest wada naszej implementacji — to fundamentalna właściwość działania modeli językowych. LLM-y halucynują: generują tekst, który brzmi poprawnie, ale jest faktycznie błędny. Jak ludzie mający lepsze i gorsze dni — z tą różnicą, że w przypadku AI jakość zależy od kontekstu i jakości danych, a nie od nastroju.

Liczy się nie to, czy AI popełnia błędy, ale czy te błędy są wychwytywane, zanim wyrządzą szkodę.

Nasz workflow jest zbudowany wokół tej rzeczywistości: wieloetapowa weryfikacja, sprawdzanie faktów względem materiałów źródłowych, punktacja pewności (system sygnalizuje, gdy nie jest pewny) i przegląd przez człowieka na każdej ścieżce wynikowej o wysokiej stawce. Klient zawsze dostaje jakość premium — nie dlatego, że AI jest idealne, ale dlatego, że nasz proces wychwytuje niedoskonałości, zanim do Ciebie dotrą.

Nie budujemy systemów, w których AI ma niezweryfikowany autorytet nad działaniami o poważnych konsekwencjach: transakcjami finansowymi, komunikacją z klientami bez zatwierdzenia lub usuwaniem danych. Dokumentujemy znane tryby awarii w pakiecie przekazania i testujemy wobec przypadków granicznych, nie tylko łatwej ścieżki.

Szczegółowe wyjaśnienie, jak działa halucynacja i nasz proces weryfikacji, znajdziesz w Modele językowe: jak działają.


Czy podpisujecie NDA?

Tak, z jednym ograniczeniem: nie podpisujemy NDA, które zabraniają nam opisywania ogólnej kategorii wykonanej pracy (np. „asystent AI do wewnętrznego zarządzania wiedzą"). Chronimy Twoje konkretne dokumenty, dane i logikę biznesową. Nie możemy zgodzić się na ukrywanie samego istnienia typu systemu, który zbudowaliśmy.


Czy pracujecie z klientami spoza Polski?

Tak. Pracujemy po polsku i po angielsku. Cała dokumentacja, komunikacja i rezultaty mogą być w dowolnym z tych języków. Lokalizacja nie jest ograniczeniem — cały proces działa zdalnie.


Co jeśli nie jestem osobą techniczną?

To jest standard. Większość naszych klientów nie jest techniczna i proces jest pod to zaprojektowany.

Nie oczekujemy, że zrozumiesz, jak system działa od strony technicznej. Oczekujemy, że wiesz, jak wygląda Twój proces dzisiaj i jak wygląda sukces. Ty jesteś ekspertem domenowym — znasz swój biznes. My jesteśmy ekspertami technicznymi — wiemy, jak zbudować system.

Faza specyfikacji tłumaczy Twoje nietechniczne opisy na wymagania techniczne. Jeśli coś wymaga od Ciebie wiedzy technicznej, powiemy Ci to z wyprzedzeniem i pomożemy Ci się przygotować.

Podczas przekazania szkolimy Twój zespół w obsłudze systemu. Dokumentacja jest napisana prostym językiem, nie żargonem technicznym. Jeśli Twój zespół potrafi postępować zgodnie z instrukcją krok po kroku, potrafi utrzymać system.


Jaki jest najmniejszy projekt, który przyjmujecie?

AI Guide (Tier 1, 149 PLN). To uporządkowana konsultacja z pisemnym rezultatem, nie projekt budowy.

Dla projektów budowy minimum to Tier 2 (Asystent AI, od 1 500 PLN).


Czy mogę zacząć od małego i potem rozszerzać?

Tak. Wielu klientów zaczyna od pojedynczego asystenta (Tier 2), testuje go na rzeczywistej pracy i rozszerza na automatyzację lub pełny system po zobaczeniu, jak się sprawdza.

To jest właściwie nasza zalecana ścieżka, gdy dopiero zaczynasz z AI w swoim biznesie. Zacznij od małego, udowodnij wartość, potem skaluj. Udany projekt Tier 2 daje Ci pewność co do technologii, relację roboczą z nami i realne dane o tym, co działa.

Projektujemy Tier 2 z myślą o rozszerzeniu, gdy klient wskazuje, że ekspansja jest prawdopodobna. Zapisujemy to w specyfikacji. W ten sposób asystent może stać się częścią większego pipeline'u bez przebudowy od zera.


Czy muszę rozumieć programowanie?

Nie. Musisz rozumieć swój proces i swoje cele. My zajmujemy się stroną techniczną w całości.

Czego potrzebujesz:

  • Dostęp do Twoich narzędzi. Powiemy Ci dokładnie, jakie dane dostępowe lub uprawnienia potrzebujemy, i przeprowadzimy Cię przez ich udostępnienie, jeśli będzie trzeba.
  • Dostępność na feedback. Podczas fazy budowy będziesz musiał testować system na rzeczywistej pracy i powiedzieć nam, co działa, a co nie. To zajmuje kilka godzin tygodniowo, nie pełne dni.
  • Gotowość do odpowiadania na pytania. Będziemy pytać o Twoje procesy, przypadki graniczne i preferencje. Szybkie, konkretne pytania — nie techniczne.

Czego nie potrzebujesz:

  • Znajomości programowania
  • Rozumienia modeli AI lub API
  • Słownictwa technicznego
  • „Osoby technicznej" w zespole (choć nie zaszkodzi)

Budowaliśmy systemy dla soloprzedsiębiorców, którzy opisują swoje procesy prostym językiem. Jeśli potrafisz wyjaśnić, co robisz i co chcesz osiągnąć, potrafimy to zbudować.


Co się dzieje, gdy model AI zostanie zaktualizowany?

Twój system się poprawia.

Projektujemy wszystkie systemy z możliwością aktualizacji modelu. Gdy Anthropic wydaje lepszą wersję Claude lub OpenAI wydaje ulepszoną wersję GPT, Twój asystent staje się mądrzejszy bez przebudowy od zera.

Jak wygląda aktualizacja modelu w praktyce: podmieniamy model bazowy, uruchamiamy zestaw testów wobec Twoich kryteriów akceptacji, weryfikujemy, że wszystko działa jak oczekiwane (lub lepiej), i wdrażamy aktualizację. Twoje system prompty, baza wiedzy i integracje pozostają te same. Tylko „mózg" pod spodem zostaje zaktualizowany.

Jeśli jesteś na retainerze na utrzymanie, aktualizacje modeli są wliczone. Zajmujemy się aktualizacją, testujemy ją i wdrażamy. Dostajesz powiadomienie „Twój system teraz używa Claude Opus 5" (lub jak będzie się nazywała kolejna wersja) i żyjesz dalej.

Jeśli nie jesteś na retainerze, możemy przeprowadzić aktualizację jako jednorazową usługę. Wycenimy koszt z góry — to zazwyczaj kilka godzin pracy.


Czy mogę zmienić model AI później?

W większości przypadków tak.

Architekturujemy systemy tak, żeby były możliwie niezależne od modelu. Baza wiedzy, konfiguracja, warstwa integracji i logika biznesowa nie zmieniają się, gdy zmieniasz model. Zmienia się tylko model AI pod spodem.

Dla standardowych projektów (większość Tier 2 i Tier 3), przejście z Claude na GPT lub odwrotnie jest proste. System prompty mogą wymagać dostosowania — różne modele reagują inaczej na te same instrukcje — ale rdzeń systemu pozostaje nienaruszony.

Dla głębokich integracji korzystających z funkcji specyficznych dla modelu (niektóre projekty Tier 4), przejście może wymagać więcej pracy. Powiemy Ci podczas specyfikacji, czy projekt ma zależności specyficzne dla modelu, i wyjaśnimy kompromisy między podejściem niezależnym od modelu a specyficznym dla modelu.

Krótka odpowiedź: nigdy nie zamykamy Cię u jednego dostawcy AI. Jeśli pojawi się lepszy model, powinieneś mieć możliwość skorzystania z niego.


Jak chronione są moje dane?

Ochrona danych jest wbudowana w każdy projekt od pierwszego dnia, nie dołączana na końcu.

Szyfrowanie. Wszystkie dane są szyfrowane w spoczynku i w tranzycie. Standardowy TLS dla danych w tranzycie, AES-256 dla danych w spoczynku. Bez wyjątków.

Zarządzanie danymi dostępowymi. Klucze API, hasła i tokeny dostępu są przechowywane w bezpiecznym magazynie danych uwierzytelniających, nigdy w kodzie źródłowym. Twoje repozytorium GitHub zawiera pliki konfiguracyjne — ale dane uwierzytelniające są wstrzykiwane w runtime z bezpiecznego magazynu, nie zakodowane na stałe w plikach.

Kontrola dostępu. Uzyskujemy dostęp tylko do systemów i danych potrzebnych do projektu, z minimalnymi wymaganymi uprawnieniami. Po zakończeniu projektu nasz dostęp jest cofany.

Zgodność z RODO. Wszystkie projekty są projektowane z myślą o zgodności z RODO od samego początku. Szczegóły w pytaniu o RODO poniżej.

Dane po projekcie. Nie przechowujemy Twoich danych po zakończeniu projektu, chyba że konkretnie poprosisz o bieżące utrzymanie. Pliki projektowe po naszej stronie są usuwane w ciągu 30 dni od przekazania. Twoje dane żyją na Twojej infrastrukturze, pod Twoją kontrolą.

Pełne szczegóły w naszej Polityce prywatności.


Co oznacza „człowiek w pętli"?

Dla każdej decyzji z realnymi konsekwencjami — finansowymi, skierowanymi do klienta, usuwanie danych, prawne — człowiek sprawdza, zanim AI zadziała.

AI przygotowuje. Analizuje dane, przygotowuje wersję roboczą odpowiedzi, generuje rekomendację, klasyfikuje dokument. Potem się zatrzymuje i czeka, aż człowiek zatwierdzi, zmodyfikuje lub odrzuci.

Dla rutynowych, niskoryzykownych zadań (sortowanie emaili do kategorii, wyciąganie danych ze standardowych dokumentów, generowanie wewnętrznych podsumowań), AI działa autonomicznie. To zadania, w których błąd jest łatwy do wychwycenia i łatwy do naprawienia, bez istotnych konsekwencji.

Granica między „autonomicznie" a „z przeglądem człowieka" jest definiowana podczas specyfikacji. Ty decydujesz, gdzie przebiega linia, w oparciu o Twoją tolerancję na ryzyko. Zarekomendujemy na podstawie doświadczenia, ale ostateczna decyzja jest Twoja.

Tak obsługujemy rzeczywistość, że AI popełnia błędy. Nie udajemy, że tego nie robi, ale projektujemy system tak, żeby błędy na ścieżkach o wysokiej stawce były zawsze wychwytywane przez człowieka, zanim wyrządzą szkodę.


Czy mogę zobaczyć kod?

Tak. Każdy projekt jest dostarczany jako repozytorium GitHub z pełnym dostępem. Kod jest Twój.

Co dostajesz:

  • Kompletny kod źródłowy z pełną historią zmian (każdy commit, każda modyfikacja, od pierwszego dnia)
  • Wszystkie pliki konfiguracyjne (system prompty, ustawienia modelu, konfiguracje integracji)
  • Dokumentacja (README, przegląd architektury, podręcznik obsługi)
  • Zestaw testów (testy, których użyliśmy do weryfikacji, że system działa poprawnie)

Nigdy nie jesteś zablokowany. Jeśli chcesz zatrudnić innego programistę do modyfikacji systemu, możesz. Jeśli chcesz przejść do innego dostawcy na utrzymanie, możesz. Jeśli chcesz sforkować projekt i zbudować na nim coś nowego, możesz.

Kod jest Twój. Nie licencjonowany dla Ciebie, nie hostowany na naszej infrastrukturze z ograniczonym dostępem — Twój. W pełni.


A co z RODO?

Projektujemy wszystkie systemy z myślą o zgodności z RODO od samego początku. To nie jest dodatek ani opcja dołączana po fakcie.

Podczas specyfikacji: Przetwarzanie danych osobowych jest jawnie udokumentowane. Jakie dane są zbierane, dlaczego, jak są przetwarzane, gdzie są przechowywane, kto ma dostęp i jak długo są przechowywane. Jeśli system przetwarza dane osobowe, specyfikacja zawiera sekcję o przetwarzaniu danych.

Trenowanie modeli: Nie używamy Twoich danych do trenowania modeli. Twoje dokumenty, emaile i dane biznesowe są używane wyłącznie na potrzeby Twojego projektu. Nie stają się częścią czyjegokolwiek zbioru treningowego.

Retencja danych: Polityki są definiowane per projekt podczas specyfikacji. Jak długo dane są przechowywane, kiedy są usuwane i jak usunięcie jest weryfikowane. Dane Twoich klientów pozostają pod Twoją kontrolą przez cały czas.

Umowa o przetwarzanie danych: Dla projektów obejmujących przetwarzanie danych osobowych dostarczamy standardową umowę powierzenia przetwarzania danych (DPA) jako część dokumentacji projektowej.

Prawo do usunięcia: Systemy obsługujące dane osobowe zawierają możliwość usunięcia konkretnych rekordów na żądanie, zgodnie z wymaganiami art. 17 RODO.

Pełne szczegóły w naszej Polityce prywatności.


Jak obchodzicie się z poufnymi informacjami biznesowymi?

Wszystkie informacje od klienta udostępnione podczas Discovery, specyfikacji i budowy są domyślnie traktowane jako poufne.

Nie udostępniamy Twoich procesów biznesowych, dokumentów ani danych innym klientom. Nie używamy Twojego projektu jako case study bez jawnej pisemnej zgody. Nie omawiamy szczegółów Twojego biznesu z nikim poza zespołem projektowym.

Dla klientów wymagających formalnych umów o poufności podpisujemy NDA (patrz pytanie o NDA powyżej w kwestii jednego ograniczenia).


Co jeśli projekt się nie uda?

Mamy proces zaprojektowany, żeby temu zapobiec, ale odpowiedzmy na to wprost.

Przed rozpoczęciem budowy: Discovery identyfikuje, czy AI to odpowiednie narzędzie. Specyfikacja definiuje dokładnie, co budujemy. Obie fazy istnieją, żeby zapobiec budowaniu czegoś, co nie zadziała. Jeśli mamy wątpliwości co do wykonalności podczas Discovery, mówimy o tym.

Podczas budowy: Testujemy na rzeczywistych danych, iterujemy na podstawie Twojego feedbacku i mierzymy wobec kryteriów akceptacji. Problemy są wychwytywane i naprawiane podczas budowy, nie odkrywane po dostarczeniu.

Jeśli kryteria akceptacji nie są spełnione: Pracujemy dalej, aż będą. Specyfikacja definiuje, jak wygląda „gotowe", i obie strony są nią związane. Nie dostarczamy systemu, który nie spełnia własnej specyfikacji.

Jeśli odkryjemy w trakcie budowy, że podejście nie zadziała: Mówimy Ci natychmiast. Nie ukrywamy problemów ani nie liczymy, że same się rozwiążą. Proponujemy alternatywy, dostosowujemy specyfikację lub w rzadkich przypadkach rekomendujemy zatrzymanie projektu. W takim przypadku nie płacisz za pracę, która nie dostarcza wartości.

Nigdy nie dostarczyliśmy projektu, który nie spełniał swojej specyfikacji. Powód jest prosty: nie rozpoczynamy projektów, co do których nie wierzymy, że możemy je dostarczyć. Właśnie po to jest Discovery.