Wait AI Meetup #11

- 18:00 Powitanie i ogłoszenia
- 18:15 Oleksii Furman - "Making AI Understandable: An Introduction to Explainable AI and Counterfactuals" + Q&A
- 19:00 Przerwa. Pizza Time & Networking
- 19:30 Katarzyna Szczęsna - "Zrozumieć nie znaczy zaufać - nasze zachowania a wyjaśnialność AI" + Q&A
- 20:15 Ankieta
- 20:30 Integracja na mieście
Tym razem będziemy mówić o XAI – czyli wyjaśnialnej sztucznej inteligencji.
Dlaczego model podjął taką decyzję? Co zrobić by decyzja modelu była inna? Pokażemy, jak sprawić, by algorytmy przestały być czarną skrzynką – i stały się zrozumiałym partnerem człowieka.
Uniwersytet Ekonomiczny, bud. W (Biblioteka), sala 4
Start: 18:00
Wpadnij, jeśli lubisz AI/ML, ale nie wiesz jak zadziałała "magia" pod spodem. Odczarujemy to razem:)
Prelegenci:
Oleksii Furman:
Oleksii obecnie realizuje studia doktoranckie, koncentrując się na wyjaśnialnej sztucznej inteligencji (xAI) oraz modelach generatywnych. Równocześnie pracuje jako inżynier badawczy w startupie, który jako jeden z pierwszych integruje na dużą skalę grafy wiedzy z dużymi modelami językowymi (LLM). Z pasją rozwija obszar generatywnej AI, dążąc do zwiększenia przejrzystości działania współczesnych systemów sztucznej inteligencji oraz nieustannie eksplorując innowacyjne zastosowania uczenia maszynowego wykraczające poza generowanie języka i obrazów.
Katarzyna Szczęsna:
Projektuje etyczną i odpowiedzialną AI opartą na wiedzy o ludzkim zachowaniu. Wspiera firmy i instytucje w tworzeniu technologii budujących zaufanie oraz jest autorką Ethical AI & Human Behaviour Framework. Bierze udział w pracach Komisji Europejskiej nad General-Purpose AI Code of Practice.
Abstrakty:
Oleksii Furman
"Making AI Understandable: An Introduction to Explainable AI and Counterfactuals"
Ta prezentacja to przystępne wprowadzenie do wyjaśnialnej sztucznej inteligencji (XAI), które w prosty sposób przybliża, czym są kontrfaktyczne wyjaśnienia — bez technicznego żargonu. Dowiesz się, dlaczego przejrzystość w działaniu AI to nie tylko modne hasło, ale realna potrzeba, jak scenariusze „co by było, gdyby” pomagają odkrywać konkretne wskazówki do działania, oraz jak kontrfakty umożliwiają budowanie zaufania, wykrywanie uprzedzeń i lepsze dostosowanie modeli do standardów etycznych. Na koniec poznasz proste i praktyczne sposoby, by włączyć XAI do własnych projektów — nawet jeśli nie jesteś programist(k)ą.
Katarzyna Szczęsna
"Zrozumieć nie znaczy zaufać - nasze zachowania a wyjaśnialność AI"
Sztuczna inteligencja coraz częściej wyjaśnia swoje decyzje, ale czy to naprawdę buduje zaufanie? W trakcie tej prezentacji opowiem, dlaczego wyjaśnialność AI nie zawsze działa tak, jak zakładamy, i jak heurystyki, emocje oraz iluzja zrozumienia wpływają na to, jak użytkownicy interpretują odpowiedzi systemów. Pokażę konkretne przypadki z rynku, w których wiedza behawioralna wpływa na decyzje bardziej niż sama treść.
Uczestnik, dokonując zgłoszenia na wydarzenie, wyraża zgodę na nieodpłatne utrwalanie swojego wizerunku podczas jego trwania oraz na wykorzystanie tych materiałów w celach promocyjnych organizatora tj. WAIT - Wrocław AI Team, w tym na publikację zdjęć na portalach społecznościowych.