Robot udostępnia dwa kanały komunikacji: wirtualną drukarkę PDF oraz przeglądarkę dokumentów; przez pierwszy pracownicy dostarczają dokumenty, w drugim współdziałają z robotem w celu wykonania zadanych akcji. Do komunikacji z innymi systemami robot używa bramek, czyli mikro-aplikacji, które odpowiadają za modyfikacje systemów zewnętrznych, na zlecenie innych komponentów robota.
Główny silnik integracji robota to dedykowany kontener zawierający środowisko języka Python, obsługiwane przez JupyterLab. Kontener został przygotowany do pracy z pozostałymi komponentami robota. Z silnikiem powiązane jest dedykowane repozytorium oprogramowania git, skojarzone z instancją robota. W repozytorium znajduje się kod agentów i bramek, które zostają uruchomione jako procesy robota pod kontrolą kontenera. Właściciel robota zachowuje pełny wgląd i nadzór nad kodem definiującym przestrzeń silnika.
Robot w swojej pracy wykorzystuje bazy o różnych charakterystykach. Bazy uruchomione są jako procesy systemowe robota.
Robota można traktować jak bardzo duży bufor danych o różnym stopniu strukturyzacji, na których pracują agenci. Moduł adaptacyjny definiuje modele tych danych oraz sposób ich reprezentacji w bazach robota. Modle zawierają konfiguracje, dokumenty, bieżący i oczekiwany stan robota i inne pomocnicze struktury. Struktury adaptacyjne zmieniają się w trakcie interakcji robota z otoczeniem. Modyfikacje te aktywizują agentów.
Pamięć RAM GPU robota jest współdzielona z pozostałymi obszarami pamięci RAM, robot umieszcza w niej parametry modeli językowych LLM (do 30Gb) oraz indeksy FAISS (ok. 2Gb na milion wektorów semantycznych). Dane te są wykorzystywane przez procesory GPU zarządzane przez silnik sztucznej inteligencji Ollama oraz agentów korzystających z wyszukiwania semantyczne np. do obsługi parowania kontrahentów.