Cześć! Nazywam się Filip Wójcik i jestem analitykiem danych oraz programistą specjalizującym się w systemach uczenia maszynowego i (szeroko rozumianej) sztucznej inteligencji. W 2021r. uzyskałem tytuł doktora na Uniwersytecie Ekonomicznym we Wrocławiu, w katedrze Inteligencji Biznesowej w Zarządzaniu. W swoich badaniach naukowych skupiam się na zastosowaniach uczenia maszynowego (zwłaszcza systemów uczenia głębokiego /Deep Learning) we wspomaganiu decyzji. Swoją pasją i zainteresowaniami w tym obszarze staram się dzielić ze studentami, pokazując możliwe kierunki rozwoju i nowe trendy. Nauczanie jest dla mnie jednym z najważniejszych aspektów zaangażowania na Uczelni. Poza pracą i nauką – jestem pasjonatem sportów walki (posiadam stopień drugi Dan Aikido, jestem instruktorem samoobrony, aktywnie trenuję Krav Magę), CrossFit i podróży górskich.
Tytuł doktora Nauk o Zarządzaniu i Jakości, 2021
Uniwersytet Ekonomiczny we Wrocławiu
Magister Informatyki w Zarządzaniu, 2017
Uniwersytet Ekonomiczny we Wrocławiu
Inżynier informatyki, 2015
WSIZ Copernicus
Magister prawa, 2012
Uniwersytet Wrocławski
Tensorflow/Keras/XGBoost/NLTK/SpaCy/etc
forecast/pingouin/statsmodels
MS Azure Machine Learning
Very good (6+ years)
Very good (6+ years)
Power BI/Tebleau
Kluczowe technologie:
Główne zadania:
Tworzenie narzędzi optymalizacyjnych.
Udizał w przygotowaniu publikacji naukowych i warsztatów akademickich.
Główne technologie:
Jako starszy specjalista ds. danych odpowiadałem za dostarczanie wysokiej jakości modeli analitycznych i uczenia maszynowego dla klientów zewnętrznych. Wewnętrzny konsultant i liderem technicznym w niektórych projektach.
Główne obszary kompetencji:
Narzędzia Pythona (pandas, NumPy, scipy, scikit-learn), biblioteki sieci neuronowych (Tensorflow, Keras, Pytorch), biblioteki do wizualizacji (Streamlit, Dash), R/Rstudio do analizy statystycznej.
Data Scientist w departamencie Commercial Management and Business Digitalization. Główne zadania:
Budowanie narzędzi optymalizacyjnych łańcuchów dostaw
Przygotowywanie publikacji naukowych i materiałów edukacyjnych.
Technologie:
Główne zadania:
Tworzenie narzędzi optymalizacyjnych.
Udizał w przygotowaniu publikacji naukowych i warsztatów akademickich.
Główne technologie:
Przygotowywanie aplikacji w środowisku big data (Apache Spark) służącej przetwarzaniu i analizie danych dotyczących grup klientów i ich wzorców zachowania rynkowego. Wykorzystanie narzędzi do dekompozycji szeregów czasowych i prognozowania, wzbogaconych analizą języka naturalnego do przewidywania zmian na rynkach.
Technologie:
Bazy danych:
Dostarczanie analiz i charakterystyki użytkowników korzystających z przeglądarki. A/B testy i projektowanie eksperymentów mających na celu poprawę retencji i konwersji. Symulacje Monte Carlo, mające na celu przewidzenie przyszłych zachowań i ew. zainteresowania produktem. Bezpośrednia współpraca z kierownictwem Firmy.
Technologie: