Mamy nadzieję, że przerabiana przez nas ostatnio integracja danych nie znudziła Wam się za bardzo, ale gdyby jednak tak było to na grudniową sesję zmieniamy front robót na nasz ulubiony silnik bazodanowy. Tym razem zajrzymy w przetwarzanie relacyjnych danych zarówno w chmurze jak i w naszych serwerowniach.

Spotykanie odbędzie się 7-go grudnia w Microsoft Polska Al. Jerozolimskie 195a, Warszawa

Agenda:

18:00 – 18:15 Powitanie

18:15 – 19:15 Janusz Rokicki – Performance intelligence in Sql Server and Azure Sql Database

Abstrakt:
The latest version of Sql Server changes the way Query Optimiser and Execution Engine cooperate and improves smart monitoring options. Three pillars of performance intelligence shift are Adaptive Query Processing, Intelligent Query Diagnostics and Automatic Tuning. This session will give high level overview of these features and then will focus on performance monitoring intelligence available in Azure Sql database and standalone version of Sql Server. That covers Query Store and smart tools built on top of it. In addition I will show how to consume Query Store’s raw data for trending / baselining / anomaly detection.

19:15 – 19:45 Networking, luźne rozmowy, i zapewne poczęstunek

19:45 – 21:00 Marek Adamczuk – Wdrożenie Transactional Analytics – notatki z pola walki

Abstrakt:
Wyobraźmy sobie bazę, której główne tabele mają setki milionów rekordów. Pracują na niej jednocześnie setki użytkowników w trybie 24/7/365 (niemal 4-dziewiątkowa niezawodność). Zapisują setki rekordów na sekundę. Jednocześnie na tych samych danych co kilka sekund uruchamiają raporty czytające dowolny (czasem wieloletni) zakres danych w oparciu o dziesiątki kryteriów. Biznes wyklucza jakiekolwiek opóźnienie na ładowanie danych i oczekuje odpowiedzi na dowolną kombinację kryteriów w nie więcej niż 30 sekund. Nie ma też mowy o jakiejkolwiek zmianie aplikacji – wszystko musi stać się po stronie bazy danych. Cała logika zapisu i odczytu musi zostać zachowana.

Na całość restrukturyzacji mamy dwa osobomiesiące. W tym czasie mamy wdrożyć rozwiązanie i przetestować na dziesiątkach tysięcy realnych przypadków. Dodatkowo, mamy zminimalizować wysiłek wewnętrznego IT w utrzymaniu nowej funkcjonalności i zapewnić natychmiastowy powrót do stanu poprzedniego w wypadku jakiegokolwiek niepowodzenia. Na wdrożenie produkcyjne mamy nie więcej niż godzinę.

Na szczęście raporty po stronie bazy mają postać procedur SQL. Mamy też solidną maszynę z SQL Server 2016 Enterprise, z always on. Pokażę, jak wykorzystać nowe zabawki, jakie daje nam SQL Server 2016, aby ten cel osiągnąć. Jak nietrudno się domyślić, główną rolę odegrają indeksy kolumnowe. Opowiem, na jakie problemy się natknęliśmy i w jaki sposób poradziliśmy sobie z postawionymi wymaganiami.

Biogramy:

Janusz Rokicki
Microsoft Data Platform Expert and certified Azure Solutions Architect with over 12 years experience working in the Financial Services Industry (retail and investment banking, multi-asset class trading systems). He has passion for secure, high-performance, maintainable data-driven applications that can be deployed with confidence on-premises and in-cloud. With educational background in intelligent sensor networks and machine learning he is always in search of automation and optimisation opportunities.

Marek Adamczuk o sobie:
Aktualnie Technical Team Leader w APN Promise. Lubię metodyki zwinne: trzy z czterech zespołów, z którymi pracuję, budują rozwiązania z użyciem Scruma. Z SQL Server pracuję od zeszłego tysiąclecia. Buduję i przebudowuję systemy, wdrażam, szkolę, doradzam. Prywatnie biegam i chodzę po górach, gram w tenisa, na gitarze klasycznej i czasem na skrzypcach.

Wstęp wolny, ale konieczna jest rejestracja na meetup , która skończy się w dzień spotkania, przed południem.

Zapraszamy do zgłaszania swoich sesji. Jeśli wiecie coś, czego inni nie wiedzą, lub chcecie zgłębić temat, którego jeszcze nikt na naszej grupie nie przedstawiał: piszcie na warszawa@datacommunity.pl

Zapraszamy,
Michał i Hubert