SysOps/DevOps Kraków MeetUp #19
Prelekcja #1: “Od pomysłu przez ChatGPT do działającego narzędzia: co się stanie, gdy admin spróbuje udawać programistę” - Bartosz Feński
Czy zastanawialiście się kiedyś, co może wyniknąć z połączenia sił administratora systemów i sztucznej inteligencji? Bartosz postanowił to sprawdzić i właśnie tak narodziło się narzędzie pv-mounter. W trakcie prelekcji zobaczymy, jak dzięki magicznemu skrótowi ctrl+c / ctrl+v udało się pokonać przeszkody i stworzyć działający program, a na jakim etapie przestało to wystarczać. Następnie Bartosz opowie o poważniejszych aspektach tego eksperymentu – problemach z prywatnością, jakie niesie ze sobą tworzenie oprogramowania przy użyciu publicznych modeli AI. Dowiemy się, jak uruchomić własny model LLM i zasilić go danymi, które nie powinny opuszczać firmy. Jeśli chcecie usłyszeć, co się dzieje, gdy admin próbuje swoich sił w programowaniu z pomocą AI - ta prezentacja jest dla Was!
Bartosz Feński - komputery są jego pasją od czasów, gdy Internet raczkował, a młodość spędził przy dźwiękach modemu łączącego się z siecią. Od prawie dwudziestu lat jest deweloperem Debiana, a w jego świecie OpenSource to jedyna słuszna droga. Jako administrator systemów Linuksowych zaczynał od pojedynczych serwerów, potem automatyzował zadania na setkach maszyn, a w końcu zarządzał dziesiątkami tysięcy serwerów, na których ruch bywa większy niż na Alejach Trzech Wieszczów w Krakowie w godzinach szczytu.
_________________________________________________________________________
Prelekcja #2: “LLM - jak tym w ogóle operować? LLMOps zderza się z DevOps” - Kamil Dudek
Buzzword-owy GenAI powoli staje się standardem nowoczesnych aplikacji - od tego już nie uciekniemy. Coraz więcej aplikacji typu Enterprise aktywnie adoptuje gotowe modele GenAI w przeróżnych use-case'ach. Jak to wszystko pogodzić z DevOpsem? Czy nowy świat LLM wprowadza również nowe problemy? Jak podejść do wdrożenia takiej aplikacji na produkcji? Czym jest w ogóle LLMOps? Kamil zdradzi nam, jak praktycznie wygląda wdrożenie takich aplikacji na poziomie globalnym, dostosowując istniejące praktyki DevOps do nowych realiów. Dowiecie się również, jak unikać najczęstszych pułapek związanych z wdrażaniem - a przede wszystkim utrzymywaniem - GenAI na środowiskach produkcyjnych.
Kamil Dudek - Fellow Cloud Architect w Pega, z pasją do technologii chmurowych AWS, GCP, Azure - a przede wszystkim Kubernetesa i pokrewnych projektów CNCF. Interesuje się również GenAI i jego zastosowaniem w biznesie, a także deploymentem, operacjami i niezawodnością modeli LLM.
Regulamin SO/DO MeetUpów stacjonarnych: https://bit.ly/RegulaminSODO