Nasze narzędzia i stack technologiczny
Wybór właściwych narzędzi do projektu AI to jak wybór właściwych narzędzi do remontu kuchni. Nie użyjesz młota burzącego do powieszenia obrazka. Nie użyjesz też śrubokręta do wyburzenia ściany. Dobieramy narzędzia na podstawie tego, co najlepiej rozwiązuje Twój problem — nie tego, co jest modne na Hacker News w tym tygodniu, nie tego, co ma najbardziej efektowne demo na Twitterze, i nie tego, co jakiś vendor promuje płacąc prelegentom na konferencjach.
Ta strona opisuje każde ważne narzędzie i technologię, których używamy, dlaczego je wybraliśmy i jaką rolę odgrywają w systemach, które dla Ciebie budujemy. Bez tajemnic. Bez czarnych skrzynek.
Nasza filozofia: najlepsze narzędzie do zadania
Branża AI ma problem z hype'em. Co tydzień pojawia się nowy model, nowy framework, nowy "zabójca wszystkiego". Większość to szum. Część jest użyteczna.
Nasze podejście jest nudne w najlepszym tego słowa znaczeniu:
- ›Czy rozwiązuje faktyczny problem klienta? Nie problem teoretyczny. Nie problem przyszły. Problem, który leży na stole teraz.
- ›Czy jest wystarczająco niezawodne do produkcji? Dema są tanie. Utrzymanie czegoś 24/7 z prawdziwymi danymi klientów jest drogie, jeśli się psuje.
- ›Czy klient może to zrozumieć i utrzymywać? Jeśli budujemy coś tak złożonego, że tylko my możemy to obsługiwać, to porażka. Twój system powinien być w pełni Twój.
- ›Czy ma sensowną strukturę kosztów? Najwymyślniejszy model na świecie jest bezużyteczny, jeśli jego uruchomienie kosztuje więcej niż problem, który rozwiązuje.
Regularnie oceniamy nowe narzędzia. Gdy pojawia się coś lepszego, adoptujemy to. Ale nie gonimy trendów i nie wymieniamy działających systemów dla samej nowości.
Modele językowe, których używamy
Modele językowe to główny silnik każdego systemu AI. Pomyśl o nich jak o pracownikach z różnymi mocnymi stronami — nie przydzielisz tej samej osoby do pisania opinii prawnej i sortowania poczty przychodzącej. Różne zadania wymagają różnych kompetencji, a użycie niewłaściwego modelu albo marnuje pieniądze, albo daje słabe wyniki.
Oto, czego używamy i dlaczego.
Claude (Anthropic) — nasz główny silnik
Claude jest naszym domyślnym wyborem do większości zadań. Anthropic buduje modele, które są mocne w wykonywaniu złożonych instrukcji, rozumieniu kontekstu i generowaniu niezawodnych, dobrze ustrukturyzowanych wyników. Testowaliśmy obszernie i Claude konsekwentnie daje najbardziej niezawodne wyniki w zastosowaniach biznesowych.
Opus 4.6 — starszy analityk.
Opus to najpotężniejszy model w ofercie Anthropic. Ma okno kontekstowe na 1 milion tokenów — to oznacza, że może przeczytać i rozumować nad około 750 000 słów naraz. Cała książka. Kompletny pakiet umów. Pół roku maili od klientów. Wszystko naraz, z głębokim zrozumieniem.
Opus używamy do:
- ›Złożonej analizy dokumentów — przegląd umów, ekstrakcja kluczowych warunków, identyfikacja ryzyk
- ›Projektowania systemów — planowanie architektury Twojego rozwiązania AI zanim zaczniemy budować
- ›Wieloetapowego rozumowania — problemów wymagających łączenia kropek z wielu dokumentów
- ›Wyników o wysokiej stawce — wszystko, gdzie dokładność jest ważniejsza niż szybkość
Opus nie jest szybki. Jest gruntowny. Gdy potrzebujesz głębi zamiast szybkości, to jest właściwe narzędzie.
Sonnet 4.6 — codzienny koń roboczy.
Sonnet trafia w punkt pomiędzy zdolnościami a szybkością. Jest wystarczająco szybki do interakcji w czasie rzeczywistym (chat z klientem, klasyfikacja na żywo) i wystarczająco inteligentny, żeby radzić sobie z niuansami (detekcja tonu, złożone zapytania, rozmowy wieloturowe).
Sonnet używamy do:
- ›Asystentów AI i chatbotów skierowanych do klientów
- ›Przetwarzania i klasyfikacji dokumentów w czasie rzeczywistym
- ›Generowania treści z zachowaniem spójności głosu marki
- ›Większości codziennych zadań w systemach produkcyjnych
Jeśli Opus to starszy konsultant, którego angażujesz przy wielkich decyzjach, to Sonnet to niezawodny członek zespołu, który ogrywa codzienne obciążenie bez mrugnięcia okiem.
Haiku 4.5 — specjalista od szybkości.
Haiku jest zbudowany do obsługi dużych wolumenów. Odpowiada w milisekundach, nie w sekundach. Nie jest tak głęboki jak Opus ani tak wszechstronny jak Sonnet, ale do prostych zadań o dużym wolumenie jest dokładnie tym, czego potrzebujesz.
Haiku używamy do:
- ›Klasyfikacji i routingu wiadomości (czy ten mail jest pilny? → tak/nie)
- ›Szybkiej ekstrakcji danych (wyciągnij numer faktury z tego PDF-a)
- ›Detekcji spamu i nadużyć
- ›Każdego zadania, gdzie przetwarzasz tysiące elementów i szybkość jest ważniejsza niż głębia
Pomyśl o Haiku jak o sortowni poczty — szybka, efektywna, precyzyjna w sortowaniu i nie musisz za to płacić stawek starszego analityka.
GPT-5.4 (OpenAI)
GPT-5.4 od OpenAI to potężny model z własnymi mocnymi stronami. Również oferuje okno kontekstowe na 1 milion tokenów i ma silne zdolności multimodalne — dobrze radzi sobie z tekstem, obrazami i złożonymi dokumentami.
GPT-5.4 używamy do:
- ›Konkretnych zadań analitycznych, gdzie jego wzorce rozumowania uzupełniają Claude'a
- ›Analizy obrazów i dokumentów — gdy zadanie wymaga interpretacji wykresów, diagramów lub układów wizualnych
- ›Walidacji krzyżowej — przy wynikach o wysokiej stawce czasem uruchamiamy to samo zadanie przez Claude'a i GPT-5.4 i porównujemy wyniki. Dwa modele dochodzące do tego samego wniosku to znacznie silniejszy argument niż jeden model zgadujący.
- ›Zadań, gdzie druga perspektywa poprawia dokładność
Nie jesteśmy przywiązani do żadnego jednego dostawcy. Gdy GPT-5.4 jest lepszym narzędziem do konkretnej pracy, używamy go. Celem jest najlepszy wynik dla Ciebie, nie lojalność wobec marki.
Codex 5.3 (OpenAI)
Codex to wyspecjalizowany model zbudowany konkretnie do generowania kodu i analizy kodu. Nie jest asystentem ogólnego przeznaczenia — to ukierunkowane narzędzie do tworzenia oprogramowania.
Gdy budujemy Twój system, Codex pomaga nam:
- ›Pisać czysty, dobrze udokumentowany kod szybciej
- ›Przeglądać istniejące bazy kodu i sugerować usprawnienia
- ›Identyfikować bugi i potencjalne problemy zanim trafią na produkcję
- ›Generować zestawy testów — automatyczne testy weryfikujące, że system działa prawidłowo
- ›Rozumieć i dokumentować systemy legacy — jeśli masz istniejący kod, którego nikt nie pamięta jak działa, Codex może go przeczytać i wyjaśnić
Codex nie zastępuje ludzkich programistów. Sprawia, że są szybsi i bardziej dokładni. Pomyśl o nim jak o bardzo doświadczonym programiście do pary, który nigdy się nie męczy i przeczytał każdy projekt open-source w internecie.
OpenClaw — agent AI w Twoim telefonie
OpenClaw różni się od wszystkiego innego na tej liście. To nie jest model, do którego wysyłasz zapytania — to agent AI, który żyje w Twoim telefonie i naprawdę robi rzeczy za Ciebie.
To rozróżnienie ma znaczenie. Chatbot odpowiada na pytania. Agent wykonuje zadania.
OpenClaw potrafi:
- ›Zarządzać Twoim kalendarzem — umawiać spotkania, wykrywać konflikty, wysyłać przypomnienia
- ›Obsługiwać komunikację — tworzyć i wysyłać wiadomości na podstawie Twoich instrukcji
- ›Realizować wieloetapowe przepływy pracy — "sprawdź moją skrzynkę w poszukiwaniu faktur, wyciągnij kwoty, zaktualizuj arkusz i napisz do księgowej, jeśli coś jest przeterminowane"
- ›Działać jako osobisty asystent, który nigdy nie śpi, nigdy nie zapomina i jest zawsze w Twojej kieszeni
Tak właśnie wyglądają agenci AI w codziennym życiu. Nie robot z science fiction — praktyczne narzędzie w kieszeni, które zajmuje się zadaniami, o których ciągle zapominasz albo na które nie masz czasu.
OpenClaw integrujemy w przepływy pracy klientów tam, gdzie osobista produktywność i zarządzanie zadaniami są kluczowymi wąskimi gardłami.
Modele open-source (Llama, Mistral i inne)
Czasem dane nie mogą opuścić Twojego budynku. Dosłownie. Wymogi regulacyjne, zobowiązania umowne lub zwykła roztropność biznesowa mogą oznaczać, że wysyłanie danych do OpenAI lub Anthropic nie wchodzi w grę.
Na takie przypadki wdrażamy modele open-source na Twojej własnej infrastrukturze:
- ›Llama (Meta) — silne zdolności ogólne, działa na standardowym sprzęcie serwerowym
- ›Mistral — doskonała wydajność, dobra jakość przy mniejszych rozmiarach modelu
- ›Inne wyspecjalizowane modele — w zależności od zadania możemy rekomendować modele open-source dedykowane dla konkretnej domeny
Kompromis jest jasny: modele on-premise są mniej zdolne niż najlepsze modele komercyjne (na razie). Ale dają Ci pełną suwerenność nad danymi. Nic nie opuszcza Twojej sieci. Nigdy.
Zawsze będziemy szczerzy co do tego kompromisu. Jeśli Twój przypadek wymaga mocy Opus lub GPT-5.4, a jednocześnie wymaga wdrożenia on-premise, powiemy Ci o realistycznych ograniczeniach i pomożemy znaleźć właściwą równowagę.
Tabela porównawcza modeli
| Model | Najlepszy do | Okno kontekstowe | Szybkość | Kiedy go używamy |
|---|---|---|---|---|
| Claude Opus 4.6 | Głęboka analiza, złożone rozumowanie, przegląd umów | 1M tokenów | Wolny (gruntowny) | Zadania o wysokiej stawce wymagające maksymalnej dokładności |
| Claude Sonnet 4.6 | Codzienne operacje, AI skierowane do klientów, treści | 200K tokenów | Szybki | Większość systemów produkcyjnych, aplikacje czasu rzeczywistego |
| Claude Haiku 4.5 | Klasyfikacja, routing, szybkie wyszukiwania | 200K tokenów | Bardzo szybki (ms) | Proste zadania o dużym wolumenie, sortowanie wiadomości |
| GPT-5.4 | Analiza multimodalna, walidacja krzyżowa, specyficzne analizy | 1M tokenów | Umiarkowany | Uzupełniające zadania analityczne, analiza obrazów |
| Codex 5.3 | Generowanie kodu, przegląd kodu, testowanie | Duże | Szybki | Budowanie i przeglądanie całego kodu, który dostarczamy |
| OpenClaw | Osobiste wykonywanie zadań, harmonogramowanie, komunikacja | N/A | Czasu rzeczywistego | Osobista produktywność, mobilne przepływy pracy |
| Llama/Mistral | Wdrożenia on-premise, suwerenność danych | Różne | Różna | Gdy dane nigdy nie mogą opuścić Twojej infrastruktury |
Rozwój i dostarczanie
Model AI to tylko część obrazu. System wokół niego — kod, wdrożenie, infrastruktura — to jest to, co sprawia, że naprawdę jest użyteczny w Twoim biznesie.
GitHub — Twój kod, zawsze
Każdy projekt, który budujemy, żyje w repozytorium Git na GitHubie. Dostajesz pełny dostęp — nie dostęp do przeglądania, nie tylko do odczytu. Pełny dostęp na poziomie właściciela.
Co to dla Ciebie oznacza:
- ›Kompletna historia zmian — każda modyfikacja jest śledzona, z informacją kto ją wykonał i kiedy. Widzisz dokładnie, co się zmieniło i dlaczego.
- ›Dokumentacja wewnątrz repozytorium — pliki README, przewodniki konfiguracji, instrukcje konserwacji. Wszystko w jednym miejscu, wersjonowane razem z kodem.
- ›Kod jest Twój. W pełni. Jeśli chcesz zatrudnić innego programistę, żeby go zmodyfikował, może to zrobić. Jeśli chcesz zmienić firmę konsultingową, zabierz repozytorium ze sobą. Jeśli jutro znikniemy, masz wszystko.
- ›Współpraca jest wbudowana — wielu programistów może pracować nad tym samym projektem bez wchodzenia sobie w drogę.
Widzieliśmy zbyt wiele firm uwięzionych u dostawców, bo dostawca "posiadał" kod. Tak nie pracujemy. Płacisz za rozwiązanie i je zatrzymujesz.
Python (FastAPI / Flask)
Python to nasz główny język backendowy. Oto dlaczego:
- ›Ekosystem AI — każda ważna biblioteka AI, framework i SDK modeli są Python-first. TensorFlow, PyTorch, LangChain, SDK Anthropic, SDK OpenAI — wszystko Python. Budowanie w Pythonie oznacza bezpośredni dostęp do każdego narzędzia w świecie AI bez warstw translacji.
- ›Szybki rozwój — Python jest zwięzły i czytelny. Budujemy szybciej, co oznacza, że Twój projekt kosztuje mniej i jest dostarczany wcześniej.
- ›Łatwość utrzymania — kod Python czyta się niemal jak angielski. Gdy Twój zespół musi zrozumieć, co system robi, może faktycznie przeczytać kod i prześledzić logikę.
- ›FastAPI do wysoko-wydajnych API, które potrzebują szybkości i automatycznej dokumentacji
- ›Flask do prostszych serwisów, gdzie minimalizm jest zaletą
TypeScript / Next.js
Gdy Twój projekt potrzebuje interfejsu webowego — dashboardu, panelu administracyjnego, portalu dla klientów — budujemy go w TypeScript i Next.js.
- ›TypeScript dodaje bezpieczeństwo typów do JavaScriptu. Tłumacząc: mniej bugów, lepsze narzędzia, kod, który wyłapuje błędy zanim trafią do Twoich użytkowników.
- ›Next.js daje nam server-side rendering (szybkie ładowanie stron), trasy API (logika backendowa obok frontendu) i doskonałą wydajność od razu.
- ›Nowoczesny, dobrze wspierany i szeroko stosowany — znalezienie programistów, którzy mogą utrzymywać aplikację Next.js, jest łatwe.
Cloudflare Workers — wdrożenie na krawędzi sieci
Twój system powinien być szybki niezależnie od tego, gdzie są Twoi użytkownicy. Cloudflare Workers uruchamia Twój kod na serwerach rozproszonych po całym świecie — w ponad 300 miastach.
Co to oznacza w praktyce:
- ›Użytkownik w Warszawie i użytkownik w Tokio — obaj dostają szybkie czasy odpowiedzi
- ›Twój system działa blisko Twoich użytkowników, nie w jednym centrum danych gdzieś w Wirginii
- ›Opłacalność — płacisz za to, co zużywasz, nie za bezczynne serwery
- ›Wbudowana ochrona przed DDoS i funkcje bezpieczeństwa
Dla większości projektów Cloudflare Workers to nasz domyślny cel wdrożeniowy. Jest niezawodny, szybki, a model cenowy ma sens dla firm każdej wielkości.
Narzędzia integracyjne
AI nie istnieje w próżni. Musi się łączyć z Twoimi istniejącymi narzędziami — Twoim CRM, pocztą, bazą danych, arkuszami kalkulacyjnymi. Oto jak tworzymy te połączenia.
REST API i webhooki
To standardowe interfejsy do łączenia nowoczesnego oprogramowania. Jeśli kiedykolwiek używałeś Zapiera albo łączyłeś dwie aplikacje, korzystałeś z czegoś zbudowanego na REST API.
- ›REST API — ustrukturyzowane zapytania między systemami. "Podaj dane tego klienta." "Utwórz nowy ticket." "Zaktualizuj ten rekord." Standardowe, dobrze rozumiane, działa z praktycznie każdym nowoczesnym narzędziem.
- ›Webhooki — powiadomienia sterowane zdarzeniami. "Gdy przyjdzie nowe zamówienie, powiadom system AI." "Gdy ten dokument zostanie zaktualizowany, uruchom ponowną analizę." Natychmiastowe reakcje bez ciągłego sprawdzania zmian.
Platformy automatyzacji (n8n, Make)
Czasem wizualny kreator przepływów jest właściwym narzędziem. Jeśli Twoja automatyzacja jest prosta — "gdy X się wydarzy, zrób Y i Z" — platforma jak n8n lub Make może być szybsza do ustawienia i łatwiejsza do modyfikacji przez Twój zespół niż pisanie kodu.
Używamy ich, gdy:
- ›Przepływ jest na tyle prosty, że kod byłby przesadą
- ›Twój zespół chce móc sam modyfikować automatyzację
- ›Szybkie prototypowanie — uruchomienie proof of concept w godziny, nie w dni
Używamy kodu, gdy:
- ›Logika jest zbyt złożona na wizualny kreator
- ›Wydajność ma znaczenie (wizualne kreatory dodają narzut)
- ›Automatyzacja jest kluczowym procesem biznesowym, który wymaga pełnej kontroli wersji i testowania
Bazy danych
- ›SQLite — do prostych projektów, prototypów i sytuacji, gdzie pełny serwer bazodanowy jest zbędny. To pojedynczy plik. Zero konfiguracji. Idealny na start.
- ›PostgreSQL — do systemów produkcyjnych, które potrzebują niezawodności, współbieżnego dostępu i skalowalności. Sprawdzony w boju, open-source, działa wszędzie.
Dopasowujemy bazę do projektu. Proof of concept nie potrzebuje PostgreSQL. System produkcyjny obsługujący 10 000 użytkowników dziennie nie powinien siedzieć w SQLite.
Kontrola jakości i nasz przepływ weryfikacji
Oto coś, czego większość firm AI Ci nie powie: modele językowe halucynują. Każdy. Claude to robi. GPT to robi. Modele open-source to robią. To jest wbudowane w sposób działania tych systemów.
To nie jest bardziej wada niż to, że ludzie czasem źle zapamiętują. To cecha technologii. Pytanie nie brzmi "czy halucynuje?" — halucynuje. Pytanie brzmi "co z tym robisz?"
Oto, co my z tym robimy.
Nasz przepływ weryfikacji
Każdy istotny wynik przechodzi przez wieloetapowy proces:
- ›Generowanie — AI tworzy początkowy wynik na podstawie zadania, kontekstu i instrukcji
- ›Weryfikacja faktów — twierdzenia, liczby, daty i referencje są sprawdzane względem materiałów źródłowych. Jeśli AI mówi "zgodnie z Twoim cennikiem, plan Standard kosztuje 199 PLN" — weryfikujemy to względem Twojego faktycznego cennika.
- ›Krzyżowe sprawdzanie źródeł — przy ważnych wynikach sprawdzamy względem wielu źródeł. Jeśli to możliwe, uruchamiamy to samo zapytanie przez drugi model i porównujemy wyniki.
- ›Przegląd przez człowieka — człowiek czyta wynik przed wysłaniem do Ciebie. Nie formalne "przyklepanie" — faktyczny przegląd przez kogoś, kto rozumie kontekst.
- ›Dostarczenie — dopiero po przejściu wszystkich kontroli wynik trafia do Ciebie lub Twoich klientów.
Dlaczego to ma znaczenie
Różnica między dobrym systemem AI a niebezpiecznym to nie model — to proces wokół modelu. Surowy wynik LLM to szkic. Nasza praca to zamienić ten szkic w coś, czemu możesz zaufać.
Dla systemów automatycznych (chatboty, pipeline'y klasyfikacji) budujemy te kroki weryfikacji bezpośrednio w systemie:
- ›Scoring pewności — AI zaznacza, gdy nie jest pewne
- ›Atrybucja źródeł — odpowiedzi zawierają odniesienia do dokumentów, na których się opierają
- ›Reguły eskalacji — pytania, na które AI nie może pewnie odpowiedzieć, są kierowane do człowieka
- ›Automatyczne sprawdzanie faktów — ceny, daty i referencje do polityk są weryfikowane względem Twoich faktycznych danych, zanim odpowiedź zostanie wysłana
Klient zawsze dostaje jakość premium. Nie dlatego, że AI jest idealne — nie jest. Dlatego, że nasz proces wyłapuje niedoskonałości zanim do Ciebie trafią.
Bezpieczeństwo
Bezpieczeństwo traktujemy poważnie. Nie jako slogan marketingowy — jako zestaw konkretnych praktyk, które stosujemy w każdym projekcie.
Zarządzanie poświadczeniami
- ›Zmienne środowiskowe — klucze API, hasła i tokeny są przechowywane jako zmienne środowiskowe, nigdy zapisane na stałe w kodzie źródłowym. Jeśli ktoś czyta kod, widzi
os.environ["API_KEY"], a nie faktyczny klucz. - ›Szyfrowane przechowywanie — poświadczenia w spoczynku są zaszyfrowane. Jeśli serwer zostanie skompromitowany, poświadczenia nie są czytelne bez klucza deszyfrowania.
- ›Rotacja sekretów — gdy poświadczenie mogło zostać ujawnione, rotujemy je natychmiast. Nie "wkrótce". Natychmiast.
Ochrona danych
- ›Szyfrowanie w tranzycie — wszystkie dane przesyłane między systemami używają HTTPS/TLS. To samo szyfrowanie, którego Twój bank używa do bankowości online.
- ›Szyfrowanie w spoczynku — dane przechowywane na dysku są zaszyfrowane. Fizyczny dostęp do serwera nie oznacza dostępu do Twoich danych.
- ›Zgodność z RODO od projektu — budujemy systemy z ochroną danych od pierwszego dnia, nie jako dodatek. Minimalizacja danych, ograniczenie celu, prawo do usunięcia — to są wymagania inżynieryjne, nie prawne formalności.
Kontrola dostępu
- ›Zasada minimalnych uprawnień — AI dostaje tylko taki dostęp, jaki potrzebuje do wykonania swojej pracy. Jeśli musi czytać maile, ale nie wysyłać — dostaje dostęp tylko do odczytu. Jeśli potrzebuje dostępu do jednej tabeli w bazie, nie dostaje dostępu do całej bazy.
- ›Audyty dostępu — po zakończeniu projektu przeglądamy wszystkie uprawnienia systemu i zaostrzamy to, co nie jest już potrzebne.
- ›Ty kontrolujesz dostęp — system działa na Twojej infrastrukturze, pod Twoją kontrolą. Możesz cofnąć dowolny dostęp w dowolnym momencie.
Walidacja danych wejściowych i bezpieczeństwo
- ›Wszystkie dane od użytkowników są walidowane — system nie ufa ślepo danym ze źródeł zewnętrznych
- ›Zapobieganie SQL injection — parametryzowane zapytania przy każdej interakcji z bazą danych
- ›Zapobieganie XSS — sanityzowany HTML w każdym interfejsie webowym
- ›Rate limiting — ochrona przed nadużyciem i atakami denial-of-service na wszystkich endpointach
- ›Bezpieczne komunikaty błędów — komunikaty błędów nigdy nie ujawniają wewnętrznych szczegółów systemu, struktur bazy danych ani wrażliwych informacji
Podsumowanie
Nasz stack jest opiniotwórczy, ale praktyczny. Używamy Claude'a jako głównego silnika AI, ponieważ konsekwentnie daje najlepsze wyniki w zastosowaniach biznesowych. Uzupełniamy GPT-5.4, Codex i modelami open-source, gdy potrzebne są konkretne mocne strony. Budujemy w Pythonie i TypeScript, bo są produktywne i łatwe w utrzymaniu. Wdrażamy na Cloudflare Workers, bo jest szybki i opłacalny. Dostarczamy przez GitHub, bo powinieneś posiadać swój kod.
Każdy wybór narzędzia służy jednemu celowi: budowaniu systemów AI, które faktycznie działają dla Twojego biznesu, są bezpieczne i nad którymi masz pełną kontrolę.
Jeśli chcesz dowiedzieć się więcej o tym, jak to wszystko odnosi się do Twojej konkretnej sytuacji, umów się na darmową konsultację, a przejdziemy to razem.