Filip Wójcik

Filip Wójcik

Ph.D., Starszy analityk danych

Uniwersytet Ekonomiczny we Wrocławiu

Bio

Cześć! Nazywam się Filip Wójcik i jestem analitykiem danych oraz programistą specjalizującym się w systemach uczenia maszynowego i (szeroko rozumianej) sztucznej inteligencji. W 2021r. uzyskałem tytuł doktora na Uniwersytecie Ekonomicznym we Wrocławiu, w katedrze Inteligencji Biznesowej w Zarządzaniu. W swoich badaniach naukowych skupiam się na zastosowaniach uczenia maszynowego (zwłaszcza systemów uczenia głębokiego /Deep Learning) we wspomaganiu decyzji. Swoją pasją i zainteresowaniami w tym obszarze staram się dzielić ze studentami, pokazując możliwe kierunki rozwoju i nowe trendy. Nauczanie jest dla mnie jednym z najważniejszych aspektów zaangażowania na Uczelni. Poza pracą i nauką – jestem pasjonatem sportów walki (posiadam stopień drugi Dan Aikido, jestem instruktorem samoobrony, aktywnie trenuję Krav Magę), CrossFit i podróży górskich.

Zainteresowania
  • Reinforcement learning
  • Deep learning
  • Systemy wspomagania decyzji
Wykształcenie
  • Tytuł doktora Nauk o Zarządzaniu i Jakości, 2021

    Uniwersytet Ekonomiczny we Wrocławiu

  • Magister Informatyki w Zarządzaniu, 2017

    Uniwersytet Ekonomiczny we Wrocławiu

  • Inżynier informatyki, 2015

    WSIZ Copernicus

  • Magister prawa, 2012

    Uniwersytet Wrocławski

Umiejętności

Narzędzia ML

Tensorflow/Keras/XGBoost/NLTK/SpaCy/etc

Analiza statystyczna

forecast/pingouin/statsmodels

Cloud/Big data tools

MS Azure Machine Learning

Python

Very good (6+ years)

Rlang

Very good (6+ years)

Narzędzia do raportowania

Power BI/Tebleau

Experience

 
 
 
 
 
InPost S.A.
Data Scientist
paź 2022 – Obecnie Wrocław
  1. Budowanie systemów wspomagania decyzji wykorzystujących uczenie maszynowe.
  2. Modelowanie finansowe i ekonometryczne.
  3. Badania i rozwój innowacyjnych algorytmów optymalizacyjnych, wykrozystujących Deep Learning, Reinforcement Learning. Badania z wykorzystaniem analizy języka naturalnego.

Kluczowe technologie:

  • Środowisko Pythona: scipy, NumPy, scikit-learn, pandas;
  • Narzędzia sieci neuronowych: Tensorflow, Tensorboard;
  • Narzędzia do wielkoskalowego modelowanie RL i uczenia maszynowego: Ray, RLLib.
 
 
 
 
 
Objectivity
Senior Data Scientist Consultant
sty 2022 – wrz 2022 Wrocław

Główne zadania:

  1. Budowanie modeli predyckcyjnych wspomagających rozmaite obszary decyzyjne: zarządzanie łańcuchem dostaw, analiza cen i kosztów,, etc. Wykorzystywanie rozmaitych algorytmów i technik uczenia maszynowego:
  • Analiza szeregów czasowych
  • Regresja, ANOVA
  • Modele deep learning, gradient boosting, modele złożone (ensembles)
  1. Tworzenie narzędzi optymalizacyjnych.

  2. Udizał w przygotowaniu publikacji naukowych i warsztatów akademickich.

  3. Główne technologie:

  • Python: scipy, NumPy, scikit-learn, pandas
  • Narzędzia optymalizacji: cvxpy with different solvers, Matlab
  • Sieci neuronowe: Tensorflow, Tensofboard, GPU computing
  • Bazy danych: MSSQL
  • Interaktywne wizualizacje: MS PowerBI, Python Streamlit
 
 
 
 
 
NeuraSYS Filip Wójcik
Senior Data Scientist, właściciel
sty 2022 – Obecnie Wrocław
Własna działalność gospodarcza – szeroko rozumiany consulting z zakresu implementacji i zastosowań uczenia maszynowego w rozmaitych procesach biznesowych. Przeprowadzanie kompleksowych analiz danych, budowanie raportów badawczych, podsumowań i zestawień statystycznych. Współpraca z klientami zarówno z sektora prywatnego, jak i z uczelniami i placówkami badawczymi.
 
 
 
 
 
Capgemini
Senior Data Scientist
lis 2020 – gru 2021 Wrocław

Jako starszy specjalista ds. danych odpowiadałem za dostarczanie wysokiej jakości modeli analitycznych i uczenia maszynowego dla klientów zewnętrznych. Wewnętrzny konsultant i liderem technicznym w niektórych projektach.

Główne obszary kompetencji:

  • sieci neuronowe,
  • reinforcement learning,
  • prognozowanie szeregów czasowych,
  • wykrywanie anomalii.

Narzędzia Pythona (pandas, NumPy, scipy, scikit-learn), biblioteki sieci neuronowych (Tensorflow, Keras, Pytorch), biblioteki do wizualizacji (Streamlit, Dash), R/Rstudio do analizy statystycznej.

 
 
 
 
 
NOKIA
Data Scientist
mar 2020 – wrz 2020 Wrocław

Data Scientist w departamencie Commercial Management and Business Digitalization. Główne zadania:

  1. Tworzenie modeli predykcyjnych wspomagających procesy biznesowe w różnych obszarach - zarządzanie łańcuchem dostaw, analiza cen i kosztów, etc. Wykorzystanie wielu narzędzi uczenia maszynowego:
  • Analiza szeregów czasowych
  • Metody klasyczne: regresja, ANOVA
  • Modele uczenia maszynowego (uczenie głębokie, gradient boosting, modele złożone)
  1. Budowanie narzędzi optymalizacyjnych łańcuchów dostaw

  2. Przygotowywanie publikacji naukowych i materiałów edukacyjnych.

  3. Technologie:

  • Python: scipy, NumPy, scikit-learn, pandas
  • Narzędzie optymalizacji: cvxpy with different solvers, Matlab
  • Narzędzia sieci neuronowych: Tensorflow, Tensofboard, GPU computing
  • Bazy danych: MSSQL
  • Wizualizacja danych: MS PowerBI, Python Streamlit
 
 
 
 
 
Objectivity
Senior Data Scientist
mar 2020 – wrz 2020 Wrocław

Główne zadania:

  1. Budowanie modeli predyckcyjnych wspomagających rozmaite obszary decyzyjne: zarządzanie łańcuchem dostaw, analiza cen i kosztów,, etc. Wykorzystywanie rozmaitych algorytmów i technik uczenia maszynowego:
  • Analiza szeregów czasowych
  • Regresja, ANOVA
  • Modele deep learning, gradient boosting, modele złożone (ensembles)
  1. Tworzenie narzędzi optymalizacyjnych.

  2. Udizał w przygotowaniu publikacji naukowych i warsztatów akademickich.

  3. Główne technologie:

  • Python: scipy, NumPy, scikit-learn, pandas
  • Narzędzia optymalizacji: cvxpy with different solvers, Matlab
  • Sieci neuronowe: Tensorflow, Tensofboard, GPU computing
  • Bazy danych: MSSQL
  • Interaktywne wizualizacje: MS PowerBI, Python Streamlit
 
 
 
 
 
Credit Suisse
Assistant Vice President, Data Scientist
lis 2016 – paź 2017 Wrocław

Przygotowywanie aplikacji w środowisku big data (Apache Spark) służącej przetwarzaniu i analizie danych dotyczących grup klientów i ich wzorców zachowania rynkowego. Wykorzystanie narzędzi do dekompozycji szeregów czasowych i prognozowania, wzbogaconych analizą języka naturalnego do przewidywania zmian na rynkach.

Technologie:

  • Cloudera (dystrybucja Hadoopa)
  • Scala + Spark + Spark Streaming + mllib
  • R + caret + mlr + xgboost + H2O
  • H2O ai
  • Python + scipy + pandas + sklearn
  • Pig
  • Jupyter notebooks

Bazy danych:

  • Impala
  • Hive
  • MS SQL Server
  • Informatika Power Center
 
 
 
 
 
Opera Software
Business Analyst
sie 2016 – paź 2016 Wrocław

Dostarczanie analiz i charakterystyki użytkowników korzystających z przeglądarki. A/B testy i projektowanie eksperymentów mających na celu poprawę retencji i konwersji. Symulacje Monte Carlo, mające na celu przewidzenie przyszłych zachowań i ew. zainteresowania produktem. Bezpośrednia współpraca z kierownictwem Firmy.

Technologie:

  • Python + scipy + pandas + sklearn
  • R + caret + mlr + xgboost + H2O
  • H2O ai
  • Jupyter notebooks stack
 
 
 
 
 
Luxoft
Senior Software Developer
wrz 2014 – lip 2016 Wrocław
Budowa i projektowanie aplikacji w środowisku Big Data, służącej do analizy wolumenu sprzedaży i zachowania klientów. Grupowanie klientów pod kątem preferencji i wzorców zachowania. Kompleksowe przetwarzanie danych w procesach ETL na klastrach obliczeniowych.
 
 
 
 
 
anixe
Software Developer
wrz 2012 – sie 2014 Wrocław
Budowanie systemów rekomendacyjnych pozwalających na planowanie podróży oraz algorytmów analizy języka naturalnego rozpoznających zduplikowane opisy hoteli lub obiektów turystycznych. Kompleksowe procesy ETL służące oczyszczaniu danych i ich przygotowaniom do dalszej analizy.

Ostatnie i nadchodzące wystąpienia

Kontakt