Menu
Zamknij menu
Zaloguj się
Asseco Academy » Webinar » System RAG jako rozszerzenie bazy wiedzy dużych modeli językowych

System RAG jako rozszerzenie bazy
wiedzy dużych modeli językowych

Zapraszamy do udziału w nadchodzącym webinarze!

Data: 11.09.2025
Godzina: 17:30-18:30
Prowadzący: Patryk Palej

Dołącz do webinaru
Duże modele językowe (LLM) mają ogromne możliwości

Duże modele językowe (LLM) mają ogromne możliwości

i dość szeroką wiedzę, ale nie posiadają dostępu do wewnętrznych dokumentów organizacji i potrafią halucynować. Rozwiązaniem jest RAG (Retrieval Augmented Generation) — generowanie odpowiedzi w oparciu o wyszukiwanie i wykorzystanie wiedzy z własnych zasobów. Ideą RAG jest wzbogacenie promptu o kontekst pochodzący z repozytorium (np. indeks semantyczny) lub zewnętrznej bazy danych, do której normalnie model nie miałby dostępu.

Podczas webinaru

Podczas webinaru

wyjaśnimy, jak działa RAG, porównując go z użyciem samego LLM. Przejdziemy krok po kroku przez proces budowy systemu – od wczytania i podziału dokumentów na chunki, przez embedding i zapis do bazy wektorowej, po retrieval i generowanie odpowiedzi. Na koniec pokażemy działanie systemu „end-to-end” oraz webowy interfejs do zadawania pytań opartych na zgromadzonej wiedzy.

Prowadzący

 

 

Patryk Palej

Doświadczony specjalista i trener w zakresie Pythona, analizy danych i sztucznej inteligencji. Od 2018 roku realizuje projekty z uczenia maszynowego, SQL i rozwoju oprogramowania. Obecnie pracuje w firmie tworzącej rozwiązania AI oparte na dużych modelach językowych. Prowadzi szkolenia i warsztaty, łącząc wiedzę ekspercką z przystępnym przekazem, wysoko ocenianym przez uczestników.