Konferencja „Machine Learning@Enterprise 2017” odbędzie się w dniu 14 listopada 2017 r. w Airport Hotel Okęcie przy ul. 17 Stycznia 24 w Warszawie.

8.30 - 9.00

Rejestracja uczestników i poranna kawa

9.00 - 9.10

Otwarcie konferencji i powitanie uczestników

Przemysław Gamdzyk

CEO & Meeting Designer, Evention

SESJA PLENARNA

9:10 - 9:35

Sny o mózgach elektronowych czyli kłopoty inteligencji naturalnej ze sztuczną inteligencją

Różne rozumienie sztucznej inteligencji (słaba vs. silna). Powracające mody (głębokie sieci neuronowe). Fenomen skomplikowanych funkcjonalności uzyskiwanych za pomocą prostych modeli. Kwestie etytczne wiążące się z AI. Obecny stan rozwoju i perspektywy zastosowań sztucznej inteligencji w obszarze IoT, przemyśle 4.0, smart city, smart living, itd., itp.

Prof. Jarosław Arabas

dr hab. inż., Instytut Informatyki, Wydział Elektroniki i Technik Informacyjnych, Politechnika Warszawska

9:35 - 10:00

Jak uzyskać lepsze efekty zastosowania Machine Learning dzięki feature engineering

Michał Sapiński

Software engineer, Google

10:00 - 10:40

DYSKUSJA PANELOWA: ML nad Wisłą

Czy firmy w Polsce zaczynają stosować rozwiązania uczenia maszynowego i sztucznej inteligencji? Czy jesteśmy w awangardzie czy ariergardzie postępu? Czy Machine Learning może być powodem rzeczywistej innowacji? Kto zajmuje się u nas ML i AI? Potencjał i pochodzenie środowiska profesjonalistów od danych. Dla kogo realizujemy projekty?

Prowadzenie:

Przemysław Gamdzyk

CEO & Meeting Designer, Evention

Udział wezmą m.in.:

dr Dominik Batorski

ICM Uniwersytet Warszawski, Sotrender

Dawid Detko

Data Science Architect & Team Leader, Predica

dr hab. Piotr Gawrysiak

Chief Data Scientist w mBank SA, profesor w Instytucie Informatyki Politechniki Warszawskiej

Konrad Pabiańczyk

Key Account Manager, Appsilon Data Science

Arkadiusz Ziemba

Founder of Statconsulting, CEO & Member of the Supervisory Board at Algolytics

10.40 - 11.00

Przerwa kawowa

SESJA WARSZTATOWA

Dalsza część konferencji toczy się w ramach 5 równoległych ścieżek, w których odbywają się półtora i dwugodzinne tutoriale. Każdy z uczestników będzie mógł wybrać interesujące go tematy, tworząc swoją indywidualna agendę. Zapisy odbędą się w formie ankiety online, którą każdy z uczestników otrzyma bezpośrednio po rejestracji na konferencję.

12.30 - 12.45

Przerwa techniczna

14.15 - 15.00

Obiad

16.30 - 16.45

Przerwa techniczna

Budowa systemów rekomendacyjnych – wykorzystanie Azure Machine Learning

Dawid Detko

Data Science Architect & Team Leader, Predica

Agenda:
Przygotowanie systemu rekomendacyjnego bazującego na rozwiązaniu Azure Machine Learning. Oprócz przygotowania klasycznej analizy koszykowej z wykorzystaniem pakietu arules i algorytmu apriori, zostanie zbudowane rozwiązanie bazujące na wbudowanym modelue MachBox Recommender. Przygotowany system będzie miał za zadanie znalezienie zależności i reguł pomiędzy

  • Użytkownikami  (użytkownik A ma podobne preferencje co użytkownik B)
  • Przedmiotami  (Przedmiot A występuje często z przedmiotem B)
  • Użytkownikami w powiązaniu z przedmiotami (rekomendacja przedmiotów dla konkretnych lub nowych użytkowników)

Podczas tutoriala użytkownik przejdzie drogę od pozyskania danych transakcyjnych, poprzez oczyszczenie oraz transformację do odpowiedniej formy jako wsad do modeli. Kolejne etapy to proces uczenia, parametryzowania a także testowania modeli. Finalną wersją wykonanego projektu będzie przygotowanie WebService’u typu Request-Response w narzędziu Azure Machine Learning pozwalającego w prosty sposób na odpytywanie modelu z poziomu np. Excela.

Słowa kluczowe:

#Azure, #WebService, #Arules, #Apriori, #R, #MachBox Recommender, #AzureML, #associationRules

Co uczestnik wyniesie dzięki uczestnictwu w tym akurat tutorialu:

  1. Poznanie praktycznych metod budowania systemów rekomendacyjnych
  2. Komercyjna implementacja R
  3. Deployment rozwiązania w pełni bazującego na chmurze publicznej
  4. Zdobycie doświadczenia przy wyborze i zbudowaniu rozwiązania end-end systemu rekomendacyjnego
  5. Eksperckie doradztwo w temacie Azure Machine Learningu oraz Systemów rekomendacyjnych poparte rzeczywistymi wdrożeniami

Wymagania, które powinien spełniać uczestnik, by w pełni tutorial wykorzystać:

  1. Znajomość języka R.
  2. Utworzone konto Gościa w Azure ML
  3. R Studio lub R tools for Visual Studio
  4. Aktualna wersja R
  5. Usługa AzureML jest cloud based i dostęp do niej odbywa się przez przeglądarkę – dlatego też system operacyjny nie ma znaczenia.

Przykłady zastosowania uczenia maszynowego do rozwiązania konkretnych problemów biznesowych

Michał Kudelski

Senior Business Solutions Manager, SAS Institute

Agenda:

  1. Przykłady kompleksowych wdrożeń
    1. Real-time marketing (telco)
    2. Fraud analytics (m.in. banki)
    3. IoT / Analytics at the Edge (monitorowanie floty ciężarówek)
  2. Wybrane aspekty wykorzystania technik ML
    1. Poprawa działania modeli analitycznych (gradient boosting, deep learning)
    2. Wykrywanie sekwencji zdarzeń (podejście klasyczne vs. rekurencyjne sieci neuronowe)
  3. DEMO platformy analitycznej SAS Viya

Słowa kluczowe:

#SAS #Realtime #Fraud #IoT

Wiedza, którą uczestnik wyniesie z udziału w tutorialu:

– specyfika wdrożeń rozwiązań z obszaru ML w dużych organizacjach (banki, telco, sektor motoryzacyjny, …)

– przykłady kompleksowych wdrożeń platformy analitycznej (kontekst biznesowy, architektura, wykorzystane metody ML)

– praktyczne przykłady zastosowania w biznesie nowoczesnych metod ML, takich jak deep learning

– sposób pracy z danymi w środowisku SAS z wykorzystaniem nowoczesnego GUI oraz interfejsów programistycznych (SAS, Python)

– nowe i planowane funkcjonalności platformy analitycznej SAS

Wymagania wobec uczestników:
– ciekawość 🙂

Transfer Learning

(dla średniozaawansowanych)

Vladimir Alekseichenko

CEO & Founder, DataWorkshop

Opis:
Sztuczna inteligencja jest bardzo gorący tematem. Jeżeli zastanowimy się, to co teraz nazywane jako sztuczna inteligencja zwykle ma na myślę Deep Learning. Sam koncept sieci neuronowej pojawił tuż po drugiej wojnie światowej. Ale faktycznie głośno stało się w roku 2012. Kiedy Maya spodziewały się koniec świata nastąpił duży przełom w temacie związanym z rozpoznawaniem obrazów (tak zwany computer vision).

Szkolenie można będzie uznać za udane, jeżeli po nim dowiesz jak można adaptować rozwiązania tak zwanych wielkich graczy do rozwiązania Twojego problemu. To jest tak zwany Transfer Learning…

Dla kogo:
●    Dla data scientist, programistów, statystyków, analityków…
●    Dla osób które chcą zacząć używać uczenia maszynowego w praktyce
●    Dla osób które preferują przykład poprzez analogię niż matematyczne wzory

Słowa kluczowe:

#deep learning #cnn #transfer learning #resnet50 #vgg16 #inceptionv3 #keras #python

Wiedza, którą uczestnik wyniesie z udziału w tutorialu:
●    Poznasz sieci konwolucyjne (z dużym naciskiem na poziomie intuicji)
●    Metody regularyzacji – Dropout, BatchNormalization
●    Poznasz tak zwany zoo architektur (VGG{16,19}, ResNet50, Inception V3)
●    Poznasz jak można adaptować nauczony model do Twojego zadania
●    Zrozumiesz co to jest Transfer Learning i na ile to może ułatwić życie

Wymagania wobec uczestników:
●    Minimalna wiedza oprogramowania (mile widziane python lub podobny język)
●    Podstawowa znajomość jupyter, numpy, keras
●    Podstawowa znajomość koncepcji sieci neuronowych, w szczególności perceptronu wielowarstwowego (MLP)
●    Minimalne praktyczne doświadczenie z sieciami neuronowymi (np. MNIST)

Wprowadzenie do tematyki Deep Learning

Vladimir Alekseichenko

CEO & Founder, DataWorkshop

Opis:
Sztuczna inteligencja jest bardzo gorący tematem. Jeżeli zastanowimy się, to co teraz nazywane jako sztuczna inteligencja zwykle ma na myślę Deep Learning. Sam koncept sieci neuronowej pojawił tuż po drugiej wojnie światowej. Ale faktycznie głośno stało się w roku 2012, kiedy nastąpił duży przełom w temacie związanym z rozpoznawaniem obrazów (computer vision).

Szkolenie można będzie uznać za udane, jeżeli po nim zrozumiesz (przede wszystkim na poziomie intuicji) co to jest Deep Learning. Jakie znaczenie mają tutaj poszczególne składniki i będzie miał ogólne rozumienie, jak to działa pod spodem. W trakcie pokaże rozwiązanie kilku przykładowych problemów. Dzięki temu szkoleniu można będzie przejść do bardziej zaawansowanych przypadków użycia Deep Learning.

Słowa kluczowe:

#deep learning #neural networks #mlp #computer vision #keras #python

Dla kogo ta sesja będzie najbardziej wartościowa:
●    Dla programistów, statystyków, analityków…
●    Dla osób które chcą zacząć używać uczenia maszynowego w praktyce
●    Dla osób które preferują przykład poprzez analogię niż matematyczne wzory

Wiedza, którą uczestnik wyniesie w udziału:
●    Środowisko (jupyter) oraz potrzebnę biblioteki (numpy, keras, pandas…)
●    Poznasz perceptron wielowarstwowy (MLP)
●    Poznasz komponenty sieci neuronowej (np. funkcję aktywacji RELU i inne)
●    Przygotujesz swoją pierwszą sieć neuronową
●    Nauczysz się rozpoznawać liczby ręcznie pisane MNIST (ponad 90% precyzji)

Wymagania wobec uczestników:
●    Minimalna wiedza oprogramowania (mile widziane python lub podobny język)
●    Ścisły umysł
●    Bycie gotowym na dawkę informacji

Sztuczna Inteligencja w Chmurze Obliczeniowej

Tomasz Stachlewski

Senior Solution Architect, Amazon Web Services

Opis:
Podczas sesji skupimy się na przedstawieniu trzech płaszczyzn wykorzystania AI:

Silników AI – podczas tego fragmentu omówione zostaną zalety i wady wykorzystania takich rozwiązań jak TensorFlow, Apache MXNet, itp., czyli rozwiązaniami dającymi największe możliwości ale też wymagającymi największej wiedzy od osób, pragnących je wykorzystać. Opiszemy również powody, czemu chmura jest tak często wykorzystywana do implementacji tych rozwiązań
Platformy AI – ten fragment skupi się na nauczaniu maszynowym (ML) i sposobach wykorzystania ML w własnych aplikacjach. Ta część sesji będzie dodatkowo rozbudowana o część warsztatową, podczas której uczestnicy wykorzystają usługi chmurowe ML aby zbudować na podstawie danych testowych modele rekomendacyjne, które w kolejnym kroku będą wykorzystywane do np. predykcji zachowań klientów w przyszłości.
Usługi AI – ostatni fragment sesji skupi się na przykładach usług dostarczanych przez chmurę, które mają za zadania rozwiązać konkretne problemy techniczno-biznesowe, których realizacja wymaga wykorzystania sztucznej inteligencji. Ten fragment sesji również zostanie rozbudowany o część warsztatową podczas której uczestnicy przetestują takie usługi wykorzystujące sztuczną inteligencję jak text-to-speech, analiza obrazów czy też budowanie tzw. chatbotów.

Słowa klucze:

#Chmura Publiczna #AWS #Amazon Web Services #Text-To-Speech #ML #analiza obrazów #Chatbot

Wymagania wobec uczestników:
Podczas warsztatów uczestnicy będą mieli możliwości przetestowania niektórych funkcjonalności sztucznej inteligencji w chmurze AWS – w tym celu wskazane jest przyniesienia na warsztaty własnego laptopa. Osoby bez laptopów mogą również uczestniczyć w warsztatach, jednak będą musiały ograniczyć swój udział do obserwowania i dyskusji.

Od płytkiej do głębokiej sieci w Tensorflow

dr Krzysztof Sopyła

CEO of Ermlab.com, Co-founder of PLON.io (data science sandbox)

Opis:

1. Wprowadzenie

  • Co potrafią nowoczesne sieci neuronowe?
  • Jakie zadania możemy skutecznie i praktycznie rozwiązywać

2. Deep learning – Co się złożyło na rekonesans sieci neuronowych

  • Problem vanishing gradient
  • Funkcje aktywacji
  • Sposoby aktywacji sieci
  • Dane oraz moc obliczeniowa

3. Tensorflow – opis biblioteki i filozofia pracy
4. Przykład 1 – budujemy jednowarstwową sieć neuronową w TF
5. Przykład 2 – dokładany kolejne warstwy, 5 warstwowa sieć neuronowa w TF
6. Sieć konwolucyjna – intuicja i główne idee
7. Przykład 3 – budujemy 5 wasrstwową sieć konwolucyjną
8. Przykłady będą tworzone online IDE https://plon.io

Słowa klucze:

#neural network #sieć neuronowa #sieć konwolucyjna #Tensorflow #Python

Wiedza, którą uczestnik wyniesie z udziału w tutorialu:
●    umiejętność budowania sieci neuronowych w Tensorflow
●    znajomość podstawowych funkcji aktywacji oraz wykorzystywanych algorytmów optymalizacji
●    zrozumienie zasady działania sieci konwolucyjnych

Wymagania wobec uczestników:
Uczestnicy powinni posiadać podstawowe umiejętności w zakresie programowania w Pythonie.

Analiza danych klientów z wykorzystaniem algorytmów uczenia maszynowego w celu zaplanowania skutecznej kampanii marketingowej

Krzysztof Gwardys

prezes Zarządu, Promity

Grzegorz Gwardys

Developer i Researcher, Promity

Agenda:
1.    Wprowadzenie merytoryczne – wprowadzenie do algorytmów uczenia maszynowego stosowanych w ramach warsztatu. Omówienie przykładowego zbioru danych klienckich i procesu ich przetwarzania.
2.    Implementacja z wykorzystaniem narządzi Talend  (demo) – pokaz możliwość wdrożenia algorytmów w środowisku Big Data (Cloudera + Spark) z wykorzystaniem narzędzia Talend Big Data Realtime.
3.    Implementacja własna (kodowanie) – przeprowadzenie treningu modelu z wykorzystaniem środowiska Jupyter Notebook . Testy i ewaluacja opracowanego modelu.

Słowa kluczowe:

#Talend Big Data Realtime #Jupyter Notebook #Spark ML #Cloudera

Wiedza, którą uczestnik wyniesie z udziału w tutorialu:
•    podstawową wiedzę na temat algorytmów uczenia maszynowego  (ML)
•    proces budowy rozwiązań wykorzystujących algorytmy ML
•    podstawową znajomość biblioteki uczenia maszynowego wykorzystywanej w Spark (ML lib)
•    sposób budowy rozwiązań produkcyjnych klasy Big Data z wykorzystaniem narzędzi firmy Talend

Wymagania wobec uczestników:
•    Podstawy programowania w języku Python
•    Laptop z przeglądarką

Założenia czasowe:
Czas  realizacji – 3 godziny podzielne na dwie części:
– Punkt 1 i 2 warsztatu  (1.5 godz.)
– Punkt 3 warsztatu  (1.5 godz.)
Zalecana acz nie wymagana obecność na całości warsztatów.

Deep learning w sieciach społecznościowych – jak przewidywać popularność filmów w internecie?

Adam Bielski

Data Scientist, Tooploox

dr inż. Tomasz Trzciński

Chief Scientist oraz Adiunkt, Tooploox / Politechnika Warszawska

Agenda:
1. Przewidywanie popularności a sieci neuronowe – wprowadzenie w temat analizy treści w sieciach społecznościowych, predykcji ich popularności oraz zastosowania w tym kontekście algorytmów uczenia maszynowego oraz deep learningu
2. Prezentacja rozwiązania do wyboru najlepszej miniatury filmu w oparciu o konwolucyjne sieci neuronowe
3. Samodzielne kodowanie rozwiązania do detekcji logotypów w filmach wideo przy użyciu sieci neuronowych w Pythonie

Słowa klucze: 

#Keras #Python #ConvNets #SocialMedia #LogotypeDetection #ComputerVision #DeepLearning

Co uczestnik wyniesie dzięki uczestnictwu w tym tutorialu:

  • Wiedzę na temat praktycznego zastosowania głębokich sieci neuronowych w kontekście predykcji popularności.
  • Znajomość bibliotek deep/machine learningowych: keras, scikit-learn.
  • Umiejętność wstępnej selekcji i normalizacji danych (obrazów, zdjęć wideo).
  • Praktyczną wiedzę na temat tworzenia rozwiązań detekcji i klasyfikacji logotypów w obrazach.

Wymagania, które powinien spełniać uczestnik, by w pełni tutorial wykorzystać:
Laptop z zainstalowanym git’em oraz pythonem.

Interpretacja danych i modeli uczenia maszynowego

Damian Mirecki

Machine Learning Researcher, IDENTT

Agenda:
Przegląd wybranych metod interpretacji danych i modeli uczenia maszynowego. Problematyka związana z interpretacją danych i modeli. Teoretyczne podstawy tych technik. Praktyczne demo aspektów interpertacji danych. Tutorial będzie prowadzony z wykorzystaniem języka Python oraz bibliotek takich jak sklearn, keras, matplotlib.

Słowa kluczowe:

#computer vision, #modele liniowe, #random forest, #sieci neuronowe, #lime

Co uczestnik zyska dzięki uczestnictwu:
Uczestnik pozna metody wizualizacji danych, pozwalające (jeszcze przed szczegółową analizą) dostrzec trendy lub postawić wstępne hipotezy na temat otrzymanych danych. Uczestnik zapozna się z metodami pozwalającymi na interpretację prostych, jak i złożonych modeli uczenia maszynowego.

Wymagania, które uczestnik powinien spełnić, by w pełni wykorzystać tutorial:
Uczestnik powinien mieć wiedzę na temat uczenia maszynowego oraz powinien wykazywać się znajomością języka Python. Mile widziana podstawowa znajomość tematów z zakresu głębokiego uczenia.

Przetwarzanie języka naturalnego w teorii i praktyce

Barbara Rychalska

Lider sekcji Data Science, Findwise

Agenda:

  • Wprowadzenie
    • Przetwarzanie języka naturalnego: dlaczego jest takie trudne?
  • Podstawowe zagadnienia i problemy przetwarzania języka naturalnego
    • Tokenizacja, stemming, lematyzacja
    • Drzewa parsowania
    • Analiza sentymentu
    • Rozpoznawanie nazw własnych
    • Klasyfikacja dokumentów
  • Metody uczenia maszynowego używane w NLP
    • Miara tf-idf
    • Klasyfikatory
    • Modele graficzne
    • Sieci neuronowe
  • Pythonowe narzędzia NLP
    • Pakiet NLTK
    • Przykład budowy prostego silnika klasyfikacji dokumentów
    • Prezentacja narzędzi programistycznych w iPython Notebook

Słowa kluczowe:

#NLP #przetwarzanie języka naturalnego #rozumienie języka naturalnego #stemming #tokenizacja #lematyzacja #parsowanie #klasyfikacja dokumentów #analiza sentymentu

Wiedza, którą uczestnik wyniesie z udziału w tutorialu:

  • podstawowe zagadnienia przetwarzania języka naturalnego
  • podstawowe algorytmy uczenia maszynowego stosowane w języku naturalnym
  • implementacja metod NLP w języku Python

Wymagania wobec uczestników:

Uczestnicy powinni posiadać podstawowe umiejętności w zakresie programowania w Pythonie.

Wprowadzenie do R w kontekście Machine Learning

Marta Sommer

Data Sciencist, Agora

Opis:
W czasie warsztatu przypomnimy sobie podstawowe zagadnienia z programowania w R w kontekście Machine Learningu. Nauczymy się m.in. jakie są podstawowe typy danych w R (wektory, macierze, ramki danych), jak działają funkcje,  jak wczytywać tabelę z pliku tekstowego oraz jak robić podstawowe operacje na tabelach (filtrowanie, wybieranie kolumn, grupowanie itp.) przy pomocy pakietu dplyr.

Słowa kluczowe:

#dplyr #operacj_ na_tabelach

Wymagania wobec uczestnika:
Warsztat jest skierowany do osób, które nie miały jeszcze styczności z R lub miały bardzo dawno temu i chciałyby sobie uporządkować lub przypomnieć wiedzę. Zapraszam też osoby, które znają R, ale nie miały nigdy do czynienia z pakietem dplyr. Posiadanie ze sobą komputerów nie jest konieczne, ale można go mieć („jeśli ktoś lub kodować razem z wykładowcą”).

Zarządzanie projektami Machine Learning o dużej skali w R z wykorzystaniem R Suite

dr Wit Jakuczun

CEO, WLOG Solutions

Agenda:
Machine Learning is not only about algorithms. Machine learning is about value and this can be achieved only after proper deployment of Machine Learning solutions. I will present best practices regarding managing R based ML projects. I will use our open-source tool R Suite (http://rsuite.io/). During the workshop I will talk about:
– project structure
– development cycle
– repository management
– deployment

Co uczestnik zyska dzięki udziałowi:
During the workshop you will learn about our best practices (e.g. loggers, version control, etc.) we have developed for 12 years of using R.

Wymagania jakie powinien spełniać uczestnik:
Basic R knowledge.
Basic ML knowledge.

Software installed:
R in version 4.3.2
R Suite (latest)
R Studio Desktop

Operating system:
I will be using Windows 10 and this is recommended but Linux should also work.

Bots! Bots! Bots are everywhere!

Opis:
During the workshop we present  different type of bots. We implement three real-world examples of bots that can be used as a basis for your own projects. To warm up we implement a bot for task automatization. The secondary goal is to develop a chatbot for customer service with some NLP basics used. Our main star is  Alexa and how to use bots with speech recognition in project management.

Słowa klucze:

#bots #alexa/siri #natural language processing #speech recognition #pattern recognition #python

Wiedza, którą uczestnik wyniesie z udziału w tutorialu:
●    A short overview how to use bots in practice
●    Practical knowledge about natural language processing, speech recognition and machine learning
●    Learn how to develop bots

Wymagania wobec uczestników:
●    Basic Python knowledge
●    Setup your environment: download docker image and jupyter notebooks – you need to take your own laptop with Linux or Mac as main OS

Wprowadzenie do Pythona w kontekście Machine Learning

Katarzyna Pakulska

Lider Techniczny sekcji Data Science, Findwise

Agenda:

  • Teoria
    • Czym jest uczenie maszynowe?
    • Regresja i klasyfikacja
    • Miary jakości
  • Praktyka
    • Podstawy NumPy
    • Podstawy Scikit-learn
    • Otwarte źródła danych
    • Praca z danymi z użyciem NumPy i Scikit-learn
    • Przykład pełnej analizy danych na przykładzie regresji liniowej
  • Metody doboru modelu i poprawienia jakości
    • Walidacje
    • Poszukiwanie parametrów
    • Regularyzacja
    • Ensemble

Słowa klucze:

#Python #Machine Learning #IPython #Scikit-learn #NumPy

Co użytkownik zyska:
– iPython notebook z pełnym szkoleniem, możliwym do odpalenia na własnych laptopach w czasie warsztatu
– praktyczne wprowadzenie do bibliotek uczenia maszynowego w Pythonie
– wiele fragmentów kodu gotowych do indywidualnej kontynuacji nauki
– wiedzę o podstawowych metodach poprawy i ewaluacji modeli

Wymagania wobec uczestnika:

– podstawowa umiejętność programowania w języku Python
– mile widziany własny komputer ze środowiskiem Anakondy w celu indywidualnego odpalenia notebooka iPython z ćwiczeniami i przykładami omawianymi w czasie warsztatu

Deep Learning na przykładach konkretnych zastosowań i technologii

 

Łukasz Grala

architekt danych, TIDK - Data Scientist as a Service, oraz Politechnika Poznańska

Opis:

Wraz ze wzrostem mocy obliczeniowej, oraz dostępności dużej ilości danych w tym tekstów i obrazów bardzo popularne są sieci neuronowe, a w szczególności koncepcje uczenia głębokiego (z ang. Deep Learning).

Dzięki tak zbudowanym modelom maszyny odnoszą sukces między innymi w rozpoznawaniu obrazów, przetwarzaniu tekstów, pisma, sentymentu. Nie wszyscy zdają sobie sprawę, iż jest możliwość prostego zbudowania takiej sieci, albo nawet wykorzystywania w naszych projektach już nauczonych modeli Deep Learningowych.

Agenda:

  1. Wprowadzenie do Deep Learningu
  2. Dostępne technologie i farmeworki
  3. Omówienie MicrosoftML i Cognitive Toolkit
  4. Tutorial analizy obrazów
  5. Tutorial analizy tekstu

 

Słowa kluczowe: #DeepLearning #ImageRecognition #ComputerVision #TextMining #SentimentAnalysis #KnowledgeDiscovery #R #NeuralNetworks

 

Wymagania wobec uczestnika:

  1. Analityczne myślenie
  2. Mile widziana umiejętność programowania (najlepiej język R lub Python)

 

Wiedza, którą wyniesie uczestnik:

  1. Bliższa będzie tematyka uczenia maszynowego, sztucznych sieci neuronowych i uczenia głębokiego
  2. Poznanie dostępnych framework’ów do Deep Learningu
  3. Umiejętność zbudowania modelu rozpoznającego obrazy czy analizującego teksty