Grafika prezentująca wizualną odsłonę chatbota AI wdrożonego na platformie ProjektMagazin.

Chatbot AI do dokumentów dla ProjektMagazin.de

Stworzyliśmy dla ProjektMagazin chatbota opartego na sztucznej inteligencji, który zamienia minuty ręcznego wyszukiwania w sekundy inteligentnej rozmowy, zapewniając użytkownikom natychmiastowy dostęp do tysięcy materiałów z zakresu zarządzania projektami.

Klient: ProjektMagazin.de 

Branża: Zarządzanie wiedzą 

Status: Produkcja (klient zadowolony)

O ProjektMagazin

ProjektMagazin.de to platforma online zbudowana na Drupalu, która dostarcza praktyczne materiały dotyczące zarządzania projektami specjalistom z krajów niemieckojęzycznych.

Dzięki wsparciu doświadczonych autorów i sprawdzonym metodologiom ProjektMagazin pomaga profesjonalistom w swojej dziedzinie pracować wydajniej i osiągać lepsze wyniki. Założona w 2000 roku platforma oferuje artykuły, gotowe do użycia szablony oraz narzędzia zwiększające efektywność projektów.

Wraz z rozwojem bazy wiedzy użytkownicy zaczęli jednak poświęcać zbyt dużo czasu na wyszukiwanie informacji już dostępnych w systemie, co prowadziło do frustracji i spadku produktywności. Klient chciał rozwiązać ten problem, zapewniając im błyskawiczny dostęp do treści.

Droptica, firma z doświadczeniem w zakresie rozwiązań AI, opracowała dla ProjektMagazin inteligentne rozwiązanie.

 

Wyzwanie

ProjektMagazin.de potrzebował inteligentnego sposobu na ułatwienie dostępu do obszernej bazy wiedzy, aby użytkownicy nie musieli ręcznie przeszukiwać setek dokumentów i artykułów. 

Platforma oparta na Drupalu wymagała rozwiązania, które:

  • zapewnia natychmiastowe i precyzyjne odpowiedzi na pytania użytkowników,
  • przeszukuje wiele typów treści i taksonomii,
  • automatycznie synchronizuje dane z systemem CMS,
  • skalowalnie obsługuje ruch bez wzrostu kosztów operacyjnych.

Rozwiązanie

Stworzyliśmy chatbota opartego na sztucznej inteligencji, który całkowicie zmienił sposób, w jaki użytkownicy ProjektMagazin wyszukują informacje.

System potrafi zrozumieć pytania zadawane w języku naturalnym, przeszukuje zindeksowane treści, ocenia ich trafność i generuje precyzyjne odpowiedzi w oparciu o najbardziej adekwatne dane.

Dzięki temu czasochłonne wyszukiwanie informacji zostało zastąpione krótką, inteligentną rozmową z chatbotem trwającą zaledwie kilka sekund.

Co stworzyliśmy

Grafika prezentująca chatbota AI wdrożonego na platformie klienta ProjektMagazin.

1. Inteligentny system klasyfikacji pytań

Wdrożyliśmy mechanizm analizy zapytań, który automatycznie rozpoznaje typ pytania i wybiera optymalną ścieżkę przetwarzania.

  • Kiedy użytkownicy zadają proste pytania konwersacyjne, takie jak „Dlaczego tu jesteś?” lub „Co potrafisz zrobić?”, nasz system rozpoznaje je jako zapytania ogólne i kieruje je bezpośrednio do lekkiego generatora odpowiedzi.
  • W przypadku pytań dotyczących konkretnych dokumentów system uruchamia pełną procedurę wyszukiwania. 

Ta inteligentna klasyfikacja pomaga obniżyć koszty API, zapobiegając niepotrzebnym przeszukiwaniom bazy danych z dokumentami w przypadku pytań, które tego nie wymagają. 

Rezultat:
Szybsze odpowiedzi i przewidywalne koszty operacyjne nawet przy rosnącej liczbie zapytań.

Project manager korzystający z chatbota AI na platformie z materiałami i artykułami na temat zarządzania projektami.

2. Zaawansowane indeksowanie dokumentów z bogatymi metadanymi

Zespół Droptica stworzył kompleksowy system indeksowania, który łączy się bezpośrednio z bazą danych ProjektMagazin na Drupalu poprzez interfejsy API JSON. W przeciwieństwie do prostego wyodrębniania tekstu, nasz system przechwytuje bogate metadane z każdego dokumentu:

  • Przypisanie kategorii i taksonomii w celu precyzyjnego filtrowania.
  • Informacje o autorze i identyfikatory służące do przypisania źródła.
  • Właściwości niestandardowe specyficzne dla struktury treści ProjektMagazin.

To podejście pozwala chatbotowi nie tylko udzielać dokładnych odpowiedzi, ale także zapewniać odpowiedni kontekst i wskazywać źródło. Użytkownicy mogą dokładnie zobaczyć, z jakich dokumentów i kategorii pochodzą odpowiedzi, co buduje zaufanie i przejrzystość.

Rezultat:

Zaprojektowaliśmy architekturę indeksowania tak, aby była w pełni rozszerzalna. Klient może łatwo dodawać nowe typy treści, np. artykuły, terminy taksonomii lub zupełnie nowe typy encji, bez konieczności wprowadzania zmian w całym systemie. Każdy typ treści ma swój dedykowany punkt końcowy i potok indeksowania, co sprawia, że rozbudowa jest prosta i łatwa w utrzymaniu.

Grafika przedstawiająca chatbot AI z odpowiedzią i dodatkowymi źródłami zasobów dla użytkownika.

3. Dwuetapowa ocena dokumentów o najwyższej dokładności

Wdrożyliśmy innowacyjny dwuetapowy proces wyszukiwania, który znacznie poprawia jakość odpowiedzi:

  • Etap 1: Szerokie wyszukiwanie 

Nasze wyszukiwanie wektorowe pobiera około 20 fragmentów dokumentów, które mogą zawierać istotne informacje.

  • Etap 2: Ocena z wykorzystaniem LLM

Każdy wybrany fragment jest analizowany przez model językowy (LLM) pod kątem faktycznej trafności względem pytania użytkownika. System ocenia wszystkie fragmenty i wybiera 12 najbardziej adekwatnych, na podstawie których generowana jest odpowiedź.

Rezultat:

Takie podejście gwarantuje, że użytkownicy otrzymują odpowiedzi oparte na naprawdę istotnych treściach, a nie tylko na tekstach podobnych pod względem semantycznym. Klient odnotował znaczną poprawę dokładności odpowiedzi i zadowolenia użytkowników po wdrożeniu systemu oceny dokumentów.

4. Synchronizacja treści w czasie rzeczywistym

Stworzyliśmy system oparty na webhookach, który na bieżąco aktualizuje wiedzę chatbota. Gdy redaktorzy zapisują lub aktualizują treści w Drupalu, nasz system:

  1. Otrzymuje natychmiastowe powiadomienie za pośrednictwem webhooka.
  2. Ponownie indeksuje tylko zmienioną treść.
  3. Aktualizuje bazę danych wektorową w czasie rzeczywistym.

Dodatkowo wdrożyliśmy nocną synchronizację, która wychwytuje wszelkie pominięte aktualizacje i zapewnia pełną spójność danych.

Rezultat:

Użytkownicy zawsze otrzymują odpowiedzi oparte na najświeższych informacjach. Kiedy zespół marketingowy publikuje nowy artykuł lub aktualizuje dokument dotyczący polityki, chatbot dowiaduje się o tym w ciągu kilku sekund, a nie godzin lub dni.

5. Strategiczne buforowanie odpowiedzi

Wdrożyliśmy inteligentną warstwę buforowania, która identyfikuje często zadawane pytania i przechowuje odpowiedzi. Kiedy buforowane pytanie zostanie zadane ponownie, system natychmiast zwraca odpowiedź bez konieczności wykonywania kosztownych wywołań API LLM.

Ta optymalizacja zapewnia wiele korzyści: 

  • Niemal natychmiastowe czasy odpowiedzi na typowe pytania.
  • Znaczna redukcja kosztów dzięki uniknięciu zbędnych wywołań API.
  • Zmniejszone obciążenie serwera w godzinach szczytu.
  • Poprawa komfortu użytkowania dzięki niezmiennie szybkim odpowiedziom.

Rezultat:

Klient jest w stanie osiągnąć czas odpowiedzi poniżej 100 ms dla zapytań z pamięci podręcznej, zachowując jednocześnie kompleksową obsługę nowych pytań.

Projekt managerka używająca chatbota AI do wyszukiwania dokumentów i artykułów na platformie.

6. Wbudowane zabezpieczenia chatbota AI do obsługi dokumentów

Wdrożyliśmy solidną ochronę przed wstrzyknięciem poleceń, aby chronić przed złośliwymi próbami manipulowania chatbotem. Nasze środki bezpieczeństwa obejmują:

  • Weryfikację danych wejściowych w celu wykrywania i blokowania prób wstrzyknięcia.
  • Izolację systemowych komunikatów, aby zapobiec nieautoryzowanym zmianom instrukcji.
  • Filtrowanie odpowiedzi w celu zapewnienia, że wyniki pozostają w dopuszczalnych granicach.
  • Ciągłe monitorowanie w celu identyfikacji nowych wzorców ataków.

Rezultat:

Testy potwierdziły, że wdrożone środki bezpieczeństwa skutecznie blokowały typowe próby wstrzyknięcia poleceń i zapewniały, że odpowiedzi chatbota pozostawały w zakładanych granicach.

Grafika przedstawiająca chatbot AI, w którym można przekazać feedback na temat odbytej konwersacji.

Standardowe narzędzia do monitorowania i ulepszania

Zbudowaliśmy chatbota przy użyciu standardowych narzędzi i frameworków, które zapewniają solidne możliwości monitorowania oraz elastyczność w zakresie ciągłego doskonalenia. Takie podejście zapewniło nam:

  • Pełną obserwowalność dzięki LangSmith do śledzenia wszystkich interakcji LLM i kosztów.
  • Zbieranie opinii użytkowników wbudowane bezpośrednio w interfejs w celu gromadzenia ocen jakości odpowiedzi chatbota.
  • Elastyczną architekturę umożliwiającą łatwą integrację nowych funkcji i możliwości.
  • Monitorowanie na poziomie produkcyjnym w celu identyfikacji problemów i możliwości optymalizacji.
  • Niezależność od frameworków, umożliwiającą nam dostosowywanie i rozwijanie systemu wraz z postępem technologii AI.

Rezultat:

Ta infrastruktura narzędziowa zapewnia ciągłe monitorowanie, ulepszanie i dostosowywanie chatbota do nowych najlepszych praktyk bez uzależnienia od jakiejkolwiek zastrzeżonej platformy. Informacje zwrotne od użytkowników dotyczące jakości odpowiedzi dostarczają cennych wskazówek do ciągłego udoskonalania systemu.

Wpływ na biznes i usprawnienia operacyjne

Oszczędność czasu

Użytkownicy, którzy wcześniej spędzali 10–15 minut na przeszukiwaniu dokumentacji, teraz otrzymują dokładne odpowiedzi w ciągu kilku sekund. Przekłada się to na znaczny wzrost wydajności w całej organizacji.

Efektywność kosztowa

Nasz inteligentny system buforowania i kierowania pytań sprawia, że koszty API są przewidywalne i możliwe do utrzymania. Klient obsługuje chatbota za ułamek kosztów związanych z prostymi wdrożeniami.

Zawsze aktualne informacje

Indeksowanie w czasie rzeczywistym oznacza, że użytkownicy nigdy nie pracują z nieaktualnymi informacjami. Gdy treść ulega zmianie, chatbot natychmiast o tym wie.

Skalowalność bez komplikacji

Modułowa architektura pozwala ProjektMagazin dodawać nowe typy treści i rozszerzać funkcjonalność bez konieczności przepisywania całego systemu.

Klient odnotował wysoki poziom satysfakcji użytkowników i już zidentyfikował ulepszenia wizualnego interfejsu jako kolejny etap usprawnień. Jest to wyraźny sygnał, że podstawowa funkcjonalność spełnia wszystkie jego potrzeby.

Wybór technologii

Wybraliśmy nasz zestaw technologii w oparciu o niezawodność produkcji, skalowalność i łatwość długoterminowego utrzymania.

Sztuczna inteligencja i uczenie maszynowe

Wybraliśmy LangChain ze względu na jego dojrzałe możliwości RAG (ang. Retrieval-Augmented Generation) oraz LangGraph do koordynowania złożonych drzew decyzyjnych. Pomimo pewnej krytyki społeczności dotyczącej złożoności frameworka, narzędzia te okazały się skuteczne w tworzeniu przepływów pracy AI na poziomie produkcyjnym. Ich aktywny rozwój, silna społeczność i solidne wsparcie finansowe sprawiły, że stały się bezpiecznym wyborem dla systemu o znaczeniu krytycznym. Aby zapewnić niezawodność produkcji i ciągłe doskonalenie, zintegrowaliśmy LangSmith w celu kompleksowego monitorowania i debugowania.

Elastic Search do przechowywania wektorów

Wybraliśmy Elastic Search jako naszą bazę danych wektorowych ze względu na jej sprawdzoną skalowalność, wydajne możliwości wyszukiwania podobieństw i doskonałą integrację z ekosystemem LangChain. Wybór ten pozwala ProjektMagazin.de obsługiwać aktualną kolekcję dokumentów, a jednocześnie łatwo skalować się w celu dostosowania się do przyszłego wzrostu.

Niestandardowy interfejs czatu

Zamiast dostosowywać gotowe rozwiązanie, opracowaliśmy niestandardowy interfejs czatu, który płynnie integruje się z platformą ProjektMagazin na Drupalu. Dało nam to pełną kontrolę nad doświadczeniem użytkownika i wyeliminowało obciążenia oraz ograniczenia związane z frameworkami innych firm. Interfejs charakteryzuje się responsywnym projektem zoptymalizowanym zarówno pod desktop, jak i mobile, zapewniając użytkownikom dostęp do wiedzy z dowolnego urządzenia.

Python do przetwarzania backendu

Zbudowaliśmy API backendu z użyciem języka Python, aby wykorzystać bogaty ekosystem bibliotek AI/ML i zapewnić optymalną integrację z LangChain i Elastic Search.

Przeczytaj więcej o technicznych aspektach projektu na naszym blogu

W naszych artykułach opisujemy m.in., jak zadbaliśmy o aktualność wiedzy chatbota AI, jak dobieraliśmy narzędzia i frameworki do stworzenia stabilnego pipeline’u RAG oraz jakie techniki wykorzystaliśmy, aby skrócić czas odpowiedzi i zwiększyć precyzję generowanych rezultatów.

Podoba Ci się ten projekt? Stwórz z nami chatbota AI!

Umów się z nami na bezpłatne spotkanie, aby porozmawiać o celach i wymaganiach dotyczących chatbota AI.

Skontaktujemy się z Tobą, aby omówić, w jaki sposób możemy pomóc Ci zapewnić użytkownikom natychmiastowy dostęp do Twoich treści.