Podcast o sztucznej inteligencji. Jeżeli chcesz być krok do przodu przed swoją konkurencją, usprawnić jakość produktu czy podejmować bardziej trafne decyzji, to podcast “Biznes myśli...” jest dla Ciebie. Zapraszam.
Agenci AI to przyszłość, ale czy na pewno rozumiesz, o co w tym wszystkim chodzi? Co Agenci AI mają wspólnego z SaaS, BigData oraz mikroserwisami? O tym i więcej jest w tym odcinku.
Czy agenci AI zrewolucjonizują biznes? Odkryj prawdę za hype'em! W tym odcinku zagłębiamy się w fascynujący świat agentów AI, analizując ich potencjał i pułapki w kontekście biznesowym. Dowiedz się, jak odróżnić realne możliwości od marketingowych obietnic i jak skutecznie wykorzystać AI w swojej firmie już dziś!
Czy duże modele językowe (LLM) to rewolucja, czy zagrożenie dla prawników? W tym odcinku przybliżam możliwości dużych modeli językowych (LLM) w automatyzacji procesów prawnych, tworzeniu dokumentów, tłumaczeniach prawniczych i compliance. To, co wydaje się przyszłością, dzieje się już teraz – ale czy to na pewno oznacza koniec klasycznego prawa?Partnerem podcastu jest DataWorkshop.
Czy cały szum wokół LLM to tylko marketingowa bańka?
Dzisiaj skupimy się na wdrażaniu AI na produkcję. Omówię trzy kluczowe kwestie:1️⃣ Paradoks danych, zwykle zgadzamy się, że dane są ważne, ale często nie poświęcamy im tyle uwagi, ile potrzebują.2️⃣ Przesadna koncentracja na narzędziach, owszem narzędzia są ważne, ale nie najważniejsze.3️⃣ Cechy dobrego projektu na produkcję. Powinien być wiarygodny, kontrolowany, audytowalny i łatwy w naprawie błędów.Partnerem podcastu jest DataWorkshop - gdzie zajmują się praktycznym ML/AI.Na koniec odcinka też odpowiadam na pytania:Jakie są najczęstsze błędy firm, które próbują wdrożyć AI (główny mit)?Jakie są największe wyzwania związane z modelami LLM przy wdrażaniu je na produkcję?Jakie praktyczne wskazówki mam dla Ciebie, aby wdrożyć AI w swojej firmie? Najważniejszym elementem udanego wdrożenia AI jest odpowiednie przygotowanie danych. To właśnie na poziomie danych wykonuje się 50-80% całej pracy. Kluczowe jest zadbanie o:Jakość danychOdpowiednią strukturyzację (np. w bazie danych lub systemie plików)Łatwość wyszukiwania potrzebnych informacjiMożliwość aktualizacji danychZarządzanie dostępami i uprawnieniamiPowiem Ci trzy historie (projekty LLM), co najmniej trzy, będzie pewnie ich więcej, ale takie trzy przypadki użycia, w których wprost jako DataWorkshop jesteśmy teraz zaangażowani. Myślę, że to pobudzi Twoją wyobraźnię i lepiej zrozumiesz, co jest ważniejsze. Bo pamiętaj, że w większości przypadków są różne szacunki, 80%, 90%, nawet jeśli 50%, zwykle ML nie działa. Historia pierwsza - "Mentor"Organizacja zajmuje się mentoringiem w obszarze IT, skupiając się na wiedzy organizacyjnej, menedżerskiej i liderskiej. Obecnie zapraszani są eksperci, którzy prowadzą warsztaty. Są pewne wyzwania: ciężko jest to uspójnić, bo różni eksperci prezentują wiedzę w inny sposób i co jeszcze jest Trudności ze znalezieniem praktyków, bo znalezienie i zaangażowanie zapracowanych ekspertów jest trudne.Pojawił się pomysł, aby ocyfrować wiedzę i częściowo zautomatyzować mentoring przy pomocy AI. Czy to w ogóle możliwe?Historia druga - "Egzamin"Drugi projekt nazwijmy "Egzamin". W szkole zawodowej uczniowie zdają egzaminy, aby zdobyć kwalifikacje. Celem projektu jest stworzenie asystenta AI, który zdałby ten egzamin. Dlaczego to istotne? Zdając egzamin, asystent udowodniłby, że rozumie daną branżę. Można go by potem rozwijać, aby podpowiadał i prognozował. Klasyczne uczenie maszynowe i LLM mogą tu współdziałać. LLM może posiadać ogólną wiedzę zdobytą w procesie uczenia, a klasyczne algorytmy ML mogą prognozować wartości, np. popyt.Historia trzecia - "Helpdesk"Trzecia projekt nazwijmy "Helpdesk", projekt, w którym zachowanie poufności jest kluczowe. Nie mogę zdradzać szczegółów branży. W skrócie, chodzi o wykorzystanie LLM do stworzenia chatbota obsługującego bazę wiedzy i odpowiadającego na pytania użytkowników.Co znajdziesz w tym odcinku?1️⃣ Paradoks danych – mówimy o ich znaczeniu, ale często zaniedbujemy realne działania na rzecz ich jakości.2️⃣ Dlaczego 80-90% projektów ML nie trafia na produkcję? Poznaj najczęstsze błędy.3️⃣ Trzy inspirujące przykłady z życia – mentoring z AI, egzamin z udziałem LLM oraz obsługa klienta wspomagana przez AI.4️⃣ Kontrola i audytowalność – jak stworzyć projekt, który będzie skalowalny, zaufany i gotowy do poprawy błędów.5️⃣ LLM i klasyczne ML – współpraca, a nie konkurencja.6️⃣ Zadbaj o to, co naprawdę ważne! 7️⃣ Jeśli chcesz lepiej zrozumieć, jak skutecznie wdrażać modele ML w Twojej organizacji, nie przegap tego odcinka!
Chcesz uruchomić modele LLM (np. Llama, Mistral czy Bielika) na własnych warunkach? W tym odcinku dowiesz się o sprzęcie, oprogramowaniu i trikach, które to ułatwią. Konkretna i praktyczna wiedza, która Ci się przyda. Oglądaj na YouTube: https://youtu.be/_OKLzmaSmg0
Czy sztuczna inteligencja zastąpi klasyczne uczenie maszynowe? Dowiedz się, jak skutecznie wykorzystać obie technologie w biznesie!✔ Subskrybuj kanał: / https://www.youtube.com/@DataWorkshop?sub_confirmation=1
Odkryj potęgę lokalnych modeli AI! Uruchom je na swoim laptopie lub serwerze.Czytaj: https://biznesmysli.pl/lokalne-modele-ai-twoje-dane-twoje-zasady❗Obserwuj mnie na LinkedIn https://www.linkedin.com/in/vladimiralekseichenko✔ Subskrybuj kanał: / @DataWorkshop
RAG w LLM: Dlaczego popularne rozwiązania to droga donikąd?Problem: Tradycyjne podejście do RAG (Retrieval-Augmented Generation) w dużych modelach językowych (LLM), choć obiecujące w teorii, często zawodzi w praktyce. Sztuczne dzielenie danych na fragmenty (chunki) prowadzi do utraty kontekstu i generowania niespójnych, a nawet błędnych odpowiedzi.Przyczyny:-- Mechaniczne dzielenie tekstu: Tradycyjne metody dzielą dane na chunki na podstawie liczby znaków, ignorując semantykę i kontekst. To prowadzi do utraty sensu i generowania chaotycznych odpowiedzi.- Nadmierne poleganie na embeddingu: Choć embedding jest potężnym narzędziem, nie jest rozwiązaniem idealnym. Nadmierne poleganie na nim prowadzi do wybierania fragmentów tekstu podobnych semantycznie, ale niekoniecznie istotnych dla danego zapytania.- Zaniedbanie jakości danych i struktury: Skupienie się na zaawansowanych algorytmach i bazach wektorowych odciąga uwagę od kluczowej kwestii - jakości i struktury danych.Skutki:- Niska dokładność i spójność odpowiedzi: Modele LLM generują różne odpowiedzi na to samo pytanie, a użytkownicy nie mają pewności co do ich poprawności.- Brak transparentności i audytowalności: Trudno jest prześledzić proces generowania odpowiedzi i zweryfikować, skąd pochodzą konkretne informacje.- Wysokie koszty implementacji i utrzymania: Zastosowanie złożonych architektur i modeli zwiększa koszty, a problemy z jakością danych prowadzą do ciągłych poprawek i reindeksowania.
Modeli LLM to aktualnie gorący temat. Aby efektywnie wdrożyć te modele w swojej firmie, konieczne jest stworzenie własnego leaderboardu, dopasowanego do konkretnych potrzeb biznesowych. Podpowiadam jak to zrobić, czyli od czego można zacząć (3 proste kroki). Choć istnieją zewnętrzne rozwiązania, to nie dają one pełnej kontroli i gwarancji trafności oceny. Warto czerpać z doświadczeń tradycyjnego ML, pamiętając jednak o zwiększonej złożoności procesu oceny LLM.✅ Dlaczego wszystkie modele AI są błędne i jak to wpływa na biznes?
Tym razem będzie o mitach w AI. O mitach już nagrywałem ok. 4 lat temu w 55. odcinku podcastu Biznes Myśli, opublikowanym dokładnie w kwietniu 2019 roku, wtedy poruszyłem temat 10 mitów dotyczących sztucznej inteligencji, które w dużej mierze pozostają aktualne do dziś.I co znów o mitach? Tak, nawarstwiły się nowe. Tym razem skupimy się na mitach związanych z dużymi modelami językowymi (LLM - Large Language Models)https://biznesmysli.pl/7-mitow-o-sztucznej-inteligencji/Dlaczego warto posłuchać?Dowiesz się, jakie mity krążą na temat dużych modeli językowych (LLM) i dlaczego ChatGPT to nie jedyny gracz na rynku.Zrozumiesz różnicę między prototypem LLM a rozwiązaniem gotowym do wdrożenia - to kluczowe przy tworzeniu rozwiązań AI!Poznasz mechanikę halucynacji w LLM i jak sobie z nimi radzić. Nie uwierzysz, jak fascynujące jest to zjawisko!Odkryjesz, jakie wyzwania wiążą się z długimi oknami kontekstowymi i dlaczego więcej nie zawsze znaczy lepiej.Zrozumiesz, że reprezentacja wektorowa (embedding) nie jest idealna. Ma zalety, ale też ograniczenia.Dowiesz się, jak AI wpłynie na rynek pracy i dlaczego warto traktować je jako narzędzie, a nie zagrożenie.Zainspiruje Cię (mam nadzieje) do ciągłego rozwoju i wyprzedzania zmian w świecie, który ewoluuje w zawrotnym tempie!Podam, jak zwykle, konkretne przykłady lub analogii. I staram się tłumaczyć zawiłości techniczne prostym językiem.Najważniejsze tematy poruszone w tym odcinku:00:04:50 - Powtórka i umówienie 10 mitów na temat AI (odcinek BM55)00:05:55 - Porównanie trendów ChatGPT i AI, ChatGPT przyrównywane do AI00:10:34 - Otwarty nie zawsze znaczy możliwy do komercyjnego wykorzystania00:37:17 - Ryzyko związane z fine-tuningiem modeli00:43:12 - Ostrożne podejście do dostrajania modeli00:48:11 - Ograniczenia reprezentacji wektorowej (embedding)01:03:13 - Czym naprawdę jest halucynacja w kontekście LLM?01:04:47 - Wpływ AI na rynek pracy01:05:59 - Filozoficzne rozważania o świadomości AI i człowieka
Czy wiesz, że obecna technologia osiągnęła już poziom 9-9,5 na 10 w obszarze odpowiadania na pytania? W dzisiejszym odcinku zagłębiamy się w świat question answering, czyli technologii, która pozwala maszynom rozumieć pytania i udzielać na nie trafnych odpowiedzi. Gościem jest Piotr Rybak. W rozmowie z Vladimirem Alekseichenko omowiają kluczowe aspekty rozwoju systemów odpowiadających na pytania oraz jakie wyzwania stoją przed twórcami tych rozwiązań.Dowiesz się m.in.:1. Jakie rewolucyjne zmiany zaszły w ostatnich latach w wyszukiwaniu dokumentów i wyciąganiu odpowiedzi 2. Jaką rolę odgrywają duże modele językowe (LLM) w question answering?3. Dlaczego jakość i ilość danych treningowych ma kluczowe znaczenie?4. Jakie są kluczowe etapy budowy systemu question answering?5. Z jakich kluczowych komponentów składa się system question answering? 6. Jak dobrać odpowiednie dokumenty źródłowe i zadbać o kwestie dostępu i poufności 7. Jakie triki można zastosować przy generowaniu finalnej odpowiedzi z dużego kontekstu?W trakcie rozmowy poruszamy:Przemiany, jakie zaszły w technologii question answering, to wynik zastosowania nowoczesnych sieci neuronowych i generatywnych modeli językowych. Dzisiejsze systemy są niezwykle skuteczne, umożliwiając użytkownikom szybkie uzyskanie odpowiedzi na pytania bez konieczności przeszukiwania setek dokumentów.Jakość danych treningowych ma ogromne znaczenie. Im lepsze dane, tym bardziej precyzyjne odpowiedzi generuje system. Kluczowe jest też odpowiednie przygotowanie i przetworzenie tych danych, co wpływa na efektywność całego procesu.Rozmowa dotyczy również praktycznych aspektów budowy systemów question answering - od wyboru odpowiednich dokumentów źródłowych, przez ekstrakcję i preprocessing danych, aż po wybór modelu wyszukiwania i generowania odpowiedzi. Istotne jest, aby systemy te były użyteczne nawet przy niepełnej dokładności, co może znacząco zaoszczędzić czas użytkowników.Mimo rozwoju LLM, kluczowe kompetencje w budowaniu systemów AI pozostają takie same - liczy się dobranie odpowiednich narzędzi do realizacji celów i myślenie produktowe. Na koniec, Piotr i Vladimir omawiają znaczenie precyzyjnego zdefiniowania celów i wymagań przed rozpoczęciem budowy systemu. Bez tego, nawet najlepsze technologie mogą nie przynieść oczekiwanych rezultatów.Subskrybuj kanał, aby być na bieżąco z najnowszymi trendami w świecie technologii i sztucznej inteligencji! Postaw też dobrą ocenę :).
W tym odcinku porozmawiamy sobie o rolach i kompetencjach w projektach z uczeniem maszynowym w roli głównej. Temat zwykle zamyka się na “Data Scientist” lub “ML Engineer”, ale jednak na tym nie kończą się kompetencje potrzebne, aby projekt z sukcesem zacząć, przeprowadzić i co najważniejsze zakończyć. Dlatego porozmawiamy o tym: 1. Kogo potrzebujesz w projekcie ML, aby iść do przodu - wprowadzenie 2. Kto łączy DS / ML z biznesem? 3. Jakie kompetencje są potrzebne, aby wystartować? 4. Czego potrzebujesz, aby rozpędzić się z ML w Twojej firmie?
Witaj w kolejnym odcinku serii: “Machine Learning - od pomysłu do wdrożenia” W tym odcinku porozmawiamy o tym, co i jak warto mierzyć w projektach ML. Postaram się odpowiedzieć na pytania: 1. Co to są metryki sukcesu i dlaczego są podstępne? 2. Dlaczego biznesowe metryki sukcesu są takie ważne w projektach ML?3. Jak biznesowe metryki sukcesu wpływają na techniczne?4. Jakie pytania warto zadać rozmawiając o metrykach?5. O częstych błędach popełnianych na tym etapie i ich wpływie na cały projekt?
Seria: Machine Learning - od pomysłu do wdrożenia Pytania, na które będziemy szukać odpowiedzi w ciągu najbliższej godziny: 1) Co potrafi ML, a czego nie potrafi?2) Jakie wartości może przynieść ML w Twojej firmie?3) W jakich branżach ML daje przewagę?4) Jak szukać obszarów w Twojej firmie, gdzie uczenie maszynowe może pomóc? 5) Jak postawić pierwszy krok, aby zbadać potencjał, czy ML daje wartość? Wysłuchaj od początku do końca tego odcinka, aby dowiedzieć się, jak walidować swoje pomysły na ML, poznasz 7 podstawowych filtrów, które pomogą Ci uniknąć problemów na starcie. W następnych odcinkach tej serii będziemy stawiać kolejne kroki, które pozwolą Ci poznać lepiej ważne momenty i zagadnienia projektu ML. Bądź z nami do końca, aby zdobyć ogromną dawkę wiedzy i inspiracji.
Podcast Biznes Myśli po przerwie wraca w nowej odsłonie. Odsłuchaj tego odcinka i dowiedz się, jaką nową serię przygotowaliśmy dla Ciebie.
Czy zastanawiasz się, jak zmieni się Data Science i Machine Learning w ciągu najbliższego roku, 5 czy 10 lat? Czy uda się nam wejść na kolejny poziom, który dokona rewolucji? Jaki mamy potencjał i marzenia?A najważniejsze pytanie, czy to wpłynie na Twoją branżę i karierę zawodową?Dziś zapraszam Cię do swego rodzaju podsumowania roku 2021 i refleksji, co może wydarzyć się w przyszłości. Posłuchaj 5 wypowiedzi ekspertów podcastu Biznes Myśli z 2021 i dowiedz się, co przewidują, jakie widzą możliwości i potencjały w najbliższych latach.
Uczenie maszynowe nie jest skierowane do jednego konkretnego zawodu. To warstwa, która przecina wiele, o ile nie wszystkie, dziedziny w mniejszym lub większym stopniu. To również będzie dotyczyć Ciebie.Dzisiaj zebrałem trzy opinie moich świeżo upieczonych absolwentów kursu „Praktyczne uczenie maszynowe od podstaw”, aby pokazać Ci, jak różne profile mają te osoby, ale każdy znalazł coś wartościowego dla siebie w tym kursie. Dzielę się tutaj opiniami kursantów, aby pokazać ich perspektywę, ich historie oraz wrażenia. Może zainspirują kogoś, by samemu spróbować swoich sił w uczeniu maszynowym.
Co musisz wiedzieć na temat transformacji cyfrowej? Jakich błędów nie popełniać na początku? Im więcej danych tym lepiej, czy ilość nie ma znaczenia? Jakie dane warto digitalizować? Na te i inne pytania znajdziesz odpowiedź w tym odcinku podcastu.
Gościem odcinka jest Konrad Banachewicz, który od 18 lat mieszka w Holandii, a pochodzi z Polski. Jeżeli zajmujesz się Uczeniem Maszynowym, Data Science, posłuchaj! Myślę, że będziesz mógł sobie zaoszczędzić miesiące, a może nawet lata. Dowiesz się m.in. dlaczego ludzie zakochują się w Deep Learning i jak nieodwzajemniona może być ta miłość. Porozmawiamy także o jakości danych i wielu innych tematach z praktycznej strony.
Dane zawierają w sobie ogrom informacji, jednak kluczem do tego jest ich właściwa interpretacja. Pomocna temu będzie wizualizacja danych i to jest właśnie temat mojej rozmowy z Anną Kozak. Z jednej strony jest wykładowcą, skończyła Politechnikę na kierunku matematyka stosowana. Z drugiej strony pracuje jako Data Scientist, więc jest w zawodzie. Z trzeciej strony angażuje się w przeróżne inicjatywy, aby szerzyć wiedzę. Wykonuje sporo różnych rzeczy, ale jedna, która się bardzo wyróżnia, to wizualizacja. Jest wielką entuzjastką wizualizacji. Ania zajmuje się również dziedziną XAI albo interpretowalność modeli czy sztucznej inteligencji. O tym postaram się nagrać osobny odcinek. Nie chciałem się za bardzo rozdrabniać, bo to jest wątek nieco szerszy, który zasługuje co najmniej na własny odcinek. Dzisiaj natomiast porozmawiamy o tym, czym jest zły wykres, jak zrobić poprawny oraz czy można robić Data Science na wysokim poziomie bez wizualizacji.
Jak wygląda praca Product Managera w zespole AI? Na to i wiele innych pytań odpowie gość tej rozmowy - Ola Możejko. Historia Oli jest bardzo ciekawa - skończyła studia matematyczne, później pracowała jako Machine Learning Engineer, Data Scientist i niedawno zdecydowała się zmienić tę ścieżkę kariery i zostać Product Managerem. Porozmawiamy o tym, skąd pomysł na taką zmianę, ale także o sztuce zarządzania projektami, roli Product Managera w zespole AI i nie tylko. Zaczynamy!
Ile eksperymentów w tygodniu udaje Ci się przeprowadzić? W tym odcinku porozważamy o eksperymentowaniu i o tym, dlaczego odgrywa ono kluczową rolę w Machine Learning. Dodatkowo dowiesz się, jakie prowadzę własne eksperymenty, jak może Ci to pomóc. Mam też dla Ciebie pracę domową i przydatne punkty, które pomogą Ci zarządzać eksperymentami. Zaczniemy filozoficznie, ale jak zwykle skończymy praktycznie ;)
Dzisiejszym gościem jest Mirosław Mamczur. Mirek już kiedyś był w odcinku, ale to była króciutka wypowiedź tuż po kursie, bo Mirek jest absolwentem kursu "Praktyczne uczenie maszynowe od podstaw". To była pierwsza edycja. Dla mnie, dla DataWorkshop i dla Mirka był to pierwszy kurs, w którym wziął udział. Opowiadał, że się wahał czy warto, czy nie, ale potem zdecydował się i na tym wiele skorzystał. Dziś porozmawiamy o temacie ML & Cyber Security i rozwoju od analityka danych do Data Scientist na konkretnym przykładzie. Poznaj historię Mirka!
Będziemy rozmawiać o nieruchomościach. Dzisiejszym gościem jest Filip Finfando, który pracuje w SonarHome jako Lead ML Engineer. Co to jest za firma? Jeżeli słuchasz podcastu Biznes Myśli od samego początku to był czwarty odcinek, gdzie opowiadałem różne przypadki i jednym z nich był właśnie Opendoor. To jest firma w Stanach Zjednoczonych, która wystartowała najpierw w Arizonie. Oferowali oni usługę, dzięki której możesz szybko kupować nieruchomości. Zdejmowali cały ciężar z osób, które to nabyły. Wtedy powiedziałem, że nie kojarzę ani jednej firmy, która w Polsce zrobiłaby coś podobnego. Już jest, posłuchaj :)
Tym razem mam dla Ciebie nieco inny podcast niż zazwyczaj. Jest to pewien eksperyment. Polega on na tym, że Kajetan Duszyński, który prowadzi podcast Backend na froncie, zaprosił mnie do swojego podcastu, a ja pomyślałem, że warto również opublikować to u mnie. Dotychczas miałem dwie możliwości: albo głównie ja zadaje pytania, albo prowadzę monolog. Pomyślałem, że fajnie byłoby, żeby ktoś, kto ma trochę inne doświadczenie (programisty), wyciągnął tym razem ze mnie może nieco mniej oczywiste tematy i opinie. Człowiek jest bardzo subiektywny. Dzięki takim eksperymentom będę w stanie wyciągnąć więcej ukrytych warstw. Ten odcinek będzie bardzo przydatny przede wszystkim dla programistów. W szczególności jeżeli mówimy o programistach .NET, C#, bo Kajetan właśnie w tym się specjalizuje.
Jak nazywać rzeczy i dlaczego to jest istotne w projektach Machine Learning? Jakie są dobre praktyki w ML i czego można się nauczyć w chińskiej firmie? Gościem odcinka jest Marcina Możejko. To jest bardzo ciekawy, pozytywny człowiek. Marcin ma bogate doświadczenie zawodowe – z jednej strony twarde, wiedza matematyczna, z drugiej strony programistyczne, a z trzeciej strony to wszystko jeszcze łączy Data Science jako inżynier i próbuje być na krawędzi tych światów, które wcale nie jest tak łatwo połączyć.
Gościem dzisiejszego odcinka jest Kamil Krzyk - Machine Learning Engineer, który podzieli się z nami swoimi przemyśleniami z codzienności specjalisty od Machine Learning. Trafne spostrzeżenia Kamila ukazują szereg wyzwań i możliwości, które dziś stoją przed osobami, które już rozwijają się bądź chcą stawiać zawodowe kroki w branży Data Science & Machine Learning.
W uczeniu maszynowym istnieje wiele różnych rozwiązań i są grube książki, które opisują je wszystkie, ale z grubsza rzecz ujmując jest kilka rzeczy, które trzeba poznać. Jedną z nich jest na pewno Performance i Transformery, który zostały stworzone z myślą o usprawnieniach NLP, czyli dziedziny nauki i technologii poświęconej przetwarzaniu języka naturalnego, ale w tej chwili ich wykorzystanie jest znacznie szersze. Moim gościem jest Krzysztof Choromański, który zrobił doktorat na Uniwersytecie w Kolumbii. Pracuje już od 7 lat w Google Brain Robotics. Jest autorem ciekawych publikacji naukowych i ma wiele wartościowego do powiedzenia w temacie dzisiejszego odcinka.
Dziś poznasz 3 różne perspektywy osób, które przerobiły mój autorski kurs “Data Science & Machine Learning w praktyce”. Po każdej edycji nagrywam taki odcinek. Dlaczego? Chcę pokazać Ci, kim są moi absolwenci, jakie są ich motywacje i plany. Te osoby są na początku swojej drogi w DS, ale ich motywacja do rozwoju może okazać się dla Ciebie inspirująca. Może i Tobie uda się przekonać, czy też zweryfikować, dzięki temu podcastowi, czy chcesz rozwijać się w obszarze ML i DS także od strony praktycznej.
Jednym z coraz częściej poruszanych tematów w obszarze AI jest AutoML, który według wielu działa lepiej niż człowiek. To stwierdzenie jest poniekąd prawdziwe, ale jest także bardzo mylące - w szczególności dla osób, które nie do końca rozumieją kontekst. To wszystko zależy od tego, kto to mówi i w jakim kontekście. Dzisiaj spróbujemy postawić kropkę nad i, aby uspójnić i ustrukturyzować Twoją wiedzę w tym temacie. Moim gościem w tej rozmowie jest Piotr Płoński, twórca MLJAR - popularnego na całym świecie i rozwijającego się w Polsce narzędzia AutoML.
Czy zbliża się kolejna zima AI, a może jednak wiosna? Czym właściwie jest zima w tym kontekście? Na kogo to wpływa i jak? Skąd bierze się natura tego zjawiska? Czy jest się czego bać? Jakiego rozwoju AI możemy się spodziewać? Na te i wiele innych pytań znajdziesz odpowiedzi w 100 odcinku podcastu Biznes Myśli. Dowiesz się o trendach w branży AI oraz przemyśleniach Vladimira, które prowokują do krytycznego myślenia i zadawania kolejnych pytań.
Dlaczego większość projektów Machine Learning nie odnosi sukcesu lub wręcz upada?Jakie role są kluczowe, aby projekt miał szansę przeżyć i przynieść wymierne korzyści?Posłuchaj tego odcinka podcastu, aby odpowiedzieć na te i wiele innych pytań, które zwiększają szansę na powodzenie projektów klasy R&D w branży Data Science i Machine Learning.
Ten odcinek poświęcony jest podsumowaniu roku 2020, w którym dzielimy się z Tobą przemyśleniami dotyczącymi efektywności, ale także wynikami ankiety, która niedawno było przeprowadzona na łamach Biznes Myśli. Pojawiły się także dwa konkursy, które mogą Ci się spodobać :)
Stabilność modeli to bardzo ważny temat. Z jednej strony pojawia się coraz więcej algorytmów, które przynoszą całkiem fajne wyniki, choć z drugiej strony może to być złudne. Mam na myśli to, że jak wdrożymy model na produkcję, to może nas zaskoczyć. W których miejscach mogą być potencjalne kłopoty? O tym dzisiaj będę rozmawiać z Adamem, który bardzo się inspiruje tymi tematami pod różnym względem. Innym ciekawym kierunkiem rozmowy są potencjalne cyberataki, które mogą się wydarzyć i zepsuć model.
W tym odcinku poznasz 3 krótkie historie ambitnych osób, które zaczęły się efektywnie rozwijać w obszarze Machine Learning. Niech to będzie wskazówka i inspiracja. Dowiesz się także o konkretnych przykładach zastosowania narzędzi ML w biznesie, które mogą przynieść korzyść.
Z tego odcinka dowiesz się, czym jest DataWorkshop Foundation, jaki był cel jej powstania i w którą stronę zmierza. Posłuchaj trójki gości, którzy są zaangażowani w działanie i rozwój fundacji, która koncentruje się na uczeniu maszynowym.
Z tego odcinka dowiesz się, czym jest DataWorkshop Foundation, jaki był cel jej powstania i w którą stronę zmierza. Posłuchaj trójki gości, którzy są zaangażowani w działanie i rozwój fundacji, która koncentruje się na uczeniu maszynowym.
Gościem najnowszego odcinka jest Staszek Paśko - Senior Principal Software Engineer w Amazon, który pracuje nad rozwojem serwisu głosowego Alexa. Porozmawialiśmy z nim o tym, czym są technologie przetwarzania i syntezy mowy oraz jak rozwija się to pole badań i działań, jakie role spełnia i może spełniać Alexa, kto jest odbiorcą tego typu rozwiązań i jak może wyglądać przyszłość branży.
Gościem najnowszego odcinka jest Staszek Paśko - Senior Principal Software Engineer w Amazon, który pracuje nad rozwojem serwisu głosowego Alexa. Porozmawialiśmy z nim o tym, czym są technologie przetwarzania i syntezy mowy oraz jak rozwija się to pole badań i działań, jakie role spełnia i może spełniać Alexa, kto jest odbiorcą tego typu rozwiązań i jak może wyglądać przyszłość branży.
Cześć, to już 92 odcinek podcastu BM, za mną ponad 3 lata nagrań, 90h rozmów, wiele inspirujących spotkań z ludźmi zajmującymi się uczeniem maszynowym, AI i innymi obszarami powiązanymi, a także wiele przemyśleń, którymi mogłem się z Wami podzielić. W ciągu tych wszystkich odcinków padło wiele odpowiedzi na nurtujące pytania, ale jedno wciąż jest dla mnie zagadką. Dlatego dziś zadaję wyjątkowo pytania Tobie i ciekaw jestem Twojej odpowiedzi, opinii.
Cześć, to już 92 odcinek podcastu BM, za mną ponad 3 lata nagrań, 90h rozmów, wiele inspirujących spotkań z ludźmi zajmującymi się uczeniem maszynowym, AI i innymi obszarami powiązanymi, a także wiele przemyśleń, którymi mogłem się z Wami podzielić. W ciągu tych wszystkich odcinków padło wiele odpowiedzi na nurtujące pytania, ale jedno wciąż jest dla mnie zagadką. Dlatego dziś zadaję wyjątkowo pytania Tobie i ciekaw jestem Twojej odpowiedzi, opinii.
Odcinek #91 dotyczy naszego zdrowia i tego bez czego nie możemy żyć, czyli oddechu. Gościem jest Jan Szwagierczak, Data Scientist, który mieszka i pracuje w Kopenhadze. A nad czym pracuje? No właśnie nad tym, aby żyło i oddychało nam się lepiej.
Odcinek #91 dotyczy naszego zdrowia i tego bez czego nie możemy żyć, czyli oddechu. Gościem jest Jan Szwagierczak, Data Scientist, który mieszka i pracuje w Kopenhadze. A nad czym pracuje? No właśnie nad tym, aby żyło i oddychało nam się lepiej.
W tym odcinku wyjątkowo to Vladimir został przepytany. Dzielimy się rozmową, którą przeprowadził Jędrzej Paulus z Developer-Wannabe Podcast, na temat tego, co uczenie maszynowe może dać programistom. Nie zabrakło ważnych, filozoficznych pytań "dlaczego Python", a także tych związanych z koncepcyjnym podejściem do modnych słów takich jak AI. Ponadto dowiesz się: ✅ Dlaczego warto zainteresować się językiem Python? ✅Jak należy interpretować modne słowa Data Science, Machine Learning, AI?✅ Czym jest ML/DS, tak po ludzku dla programisty?✅ Dlaczego programiście warto zainteresować się ML/DS?✅ Od czego zacząć i jak sprawdzić, czy to dla mnie (i czy dam rady)?✅Jak wygląda rynek pracy w Polsce i jakie są zarobki w tej branże?
W tym odcinku wyjątkowo to Vladimir został przepytany. Dzielimy się rozmową, którą przeprowadził Jędrzej Paulus z Developer-Wannabe Podcast, na temat tego, co uczenie maszynowe może dać programistom. Nie zabrakło ważnych, filozoficznych pytań "dlaczego Python", a także tych związanych z koncepcyjnym podejściem do modnych słów takich jak AI. Ponadto dowiesz się: ✅ Dlaczego warto zainteresować się językiem Python? ✅Jak należy interpretować modne słowa Data Science, Machine Learning, AI?✅ Czym jest ML/DS, tak po ludzku dla programisty?✅ Dlaczego programiście warto zainteresować się ML/DS?✅ Od czego zacząć i jak sprawdzić, czy to dla mnie (i czy dam rady)?✅Jak wygląda rynek pracy w Polsce i jakie są zarobki w tej branże?