wiedza / doświadczenie / inspiracje
Pierwsza edycja Analitycznych wyzwań odbyła się w roku 2017 z inicjatywy użytkowników oprogramowania z rodziny IBM SPSS i Predictive Solutions, reprezentujących środowisko akademickie. Jej celem była integracja ludzi nauki wokół problematyki przetwarzania i analizy danych. Spotkanie pozwoliło stworzyć szeroką platformę współpracy dla pracowników naukowych do wymiany doświadczeń.
Program
wtorek
12 grudnia
9:00 – 10:00 |
Rejestracja uczestników |
||
10:00 – 10:20 |
Uroczyste otwarcie konferencji |
||
10:20 – 12:10 |
REFERATY PLENARNEZaawansowane narzędzia pomiaru zależności społecznychprof. dr hab. Henryk Domański PAN w Warszawie 10:20 – 10:45 Metodologia analiz ilościowych dostarcza narzędzi, które pozwalają coraz lepiej uchwycić złożoność procesów społecznych. Celem mojego wystąpienia będzie ilustracja tego postępu na przykładzie stosowania regresji kwintylowej i imputacji wielokrotnej do analizy zależności między zarobkami a wykształceniem i płcią. Opierając się na danych z badań prowadzonych w latach 1988-2013 pokażę, na ile posługiwanie się bardziej zaawansowanymi metodami zapewnia lepszy wgląd w strukturę tych te zależności w porównaniu z tradycyjnym podejściem. Dodatkowym uzasadnieniem konieczności wychodzenia poza standardowe pakiety statystyczne będzie będzie wskazanie przydatności modeli diagonalnych i logarytmiczno-liniowych w analizach nad ruchliwością społeczną. O autorze: Zaawansowana analiza danych w nauce i kształceniu akademickim: gdzie jesteśmy i co z tego wynikaprof. Jarosław Górniak Uniwersytet Jagielloński 10:45 – 11:10 W wystąpieniu zostanie poruszony problem znajomości i wykorzystania zaawansowanej analizy danych w badaniach i kształceniu akademickim w Polsce, zwłaszcza w obszarze nauk społecznych, choć nie tylko. Mowa będzie o tym, dlaczego wyrafinowane kompetencje w tym zakresie są konieczne i jak tracimy na ich zbyt słabym, upowszechnianiu. Rozwiniemy także tezę, że analiza danych to coś więcej niż znajomość technik statystycznych czy maszynowego uczenia się. O autorze: Zastosowanie metod eksploracji danych do predykcji morfologii włosów i koloru oczu na podstawie materiału genetycznegodr Joanna Karłowska-Pik Uniwersytet Mikołaja Kopernika w Toruniu 11:10 – 11:30 Ustalenie cech fizycznych osoby na podstawie zebranego materiału genetycznego jest niezwykle istotne z punktu widzenia kryminalistyki. Dlatego prowadzi się badania, które mają na celu wykazać istnienie związku pomiędzy takimi cechami jak morfologia włosów czy kolor oczu a wytypowanymi polimorfizmami pojedynczego nukleotydu (SNP). Do tej pory najczęściej używano do tego metody regresji logistycznej. Okazuje się jednak, że zastosowanie innych metod eksploracji danych, zwłaszcza sieci neuronowych, może poprawiać dotychczasowe wyniki oraz pozwolić na budowę satysfakcjonującego modelu predykcyjnego. Dodatkowym aspektem prezentacji jest omówienie możliwości wykorzystania walidacji krzyżowej do oceny jakości otrzymanego modelu, co jest szczególnie cenne w przypadku dysponowania próbą o niewielkiej liczebności. O autorce: Co widać na pierwszy rzut oka, czyli pułapki wizualizacji danychdr Sylwia Bedyńska Uniwersytet SWPS w Warszawie 11:30 – 11:50 Komunikacja wyników analiz statystycznych w sposób strawny dla przeciętnego odbiorcy jest bardzo ważna. Jeśli wyniki nie zostaną przedstawione w przystępnej formie, ich przekaz może w ogóle nie dotrzeć do odbiorcy. W prezentacji przedstawione zostaną przykłady rozmaitych wizualizacji danych statystycznych i wyników analiz statystycznych, które pełnią nie tylko funkcję informacyjną, ale także perswazyjną. Omówione zostaną także podstawowe mechanizmy psychologiczne, mające znaczenie dla efektywności wizualizacji danych, bazujące na procesach percepcji wzrokowej i naiwnych metod przetwarzania informacji liczbowych. Na deser – przykłady błędów lub manipulacji ukrytych w przekazie obrazkowym. O autorze: Analiza szeregów czasowych w ocenie stabilności składu chemicznego wód leczniczychdr Katarzyna Wątor AGH W KRAKOWIE 11:50 – 12:10 Aby wody podziemne mogły zostać uznane za lecznicze, muszą spełnić szereg kryteriów określonych w aktualnie obowiązujących przepisach prawnych: ustawie Prawo Geologiczne i Górnicze (Dz.U. 2016, poz. 1131) oraz Rozporządzeniu Ministra Zdrowia z 13 kwietnia 2006 r. w sprawie zakresu badań niezbędnych do ustalenia właściwości leczniczych naturalnych surowców leczniczych i właściwości leczniczych klimatu, kryteriów ich oceny oraz wzoru świadectwa potwierdzającego te właściwości (Dz.U. 2006 nr 80 poz. 565). Jednym z warunków jest stabilność składu chemicznego wód w czasie. Analiza szeregów czasowych pozwala na identyfikację i ocenę ewentualnych trendów zmian jakości wód leczniczych. Kluczową kwestią jest dobór odpowiednich testów i właściwa interpretacja wyników. Głównym celem wystąpienia będzie zaprezentowanie możliwości programu PS IMAGO (IBM SPSS Statistics) w tym zakresie. O autorze: |
||
12:10 – 12:20 |
Dyskusja |
||
12:20 – 13:00 |
SESJA POSTEROWAPrzerwa na kawę1. Realizacja polityki dywidendy w spółkach kapitałowych — zróżnicowanie sektorowe i własnościoweJowita Piątkowska Uniwersytet Ekonomiczny w Katowicach Istotnym problemem decyzyjnym w strategiach finansowych przedsiębiorstw jest wybór sposobu podziału zysku netto. Podział ten stanowi korzyść finansową dla akcjonariuszy. Dokonując podziału zysku nie oznacza, iż cały zysk zostanie wypłacony w formie gotówki lub w postaci wyemitowania nowych akcji. Ma to znaczenie dla spółki, ale również dla wielu grup interesów czy wypłata dywidendy zostanie zrealizowana. Celem opracowania jest ocena w jakim stopniu zróżnicowanie własnościowe i sektorowe wpływa na realizację polityki dywidendy w spółkach. Czy występuje zależność pomiędzy wielkością wypłaty dywidendy a udziałem Skarbu Państwa. Porównanie cech charakterystycznych różnych form transferu środków pieniężnych. W opracowaniu wykorzystano spółki giełdowe które podjęły decyzję realizacji polityki dywidendy. Artykuł odpowie na pytanie czy udział Skarbu Pastwa w strukturze własnościowej wpływa na realizację polityki dywidendy. Czy Skarb Państwa jako właściciel decyduje się na nadmierne pobranie dywidendy z kontrolowanych przezeń spółek notowanych na Giełdzie Papierów Wartościowych w Warszawie, przy ograniczeniach uwzględniających interes zarówno samych spółek jak i ich mniejszościowych akcjonariuszy. Czy istnieje zależność pomiędzy wyszczególnionymi zmiennymi. Badaniem objęto spółki wypłacające dywidendę, gdzie akcjonariuszem jest również Skarb Państwa, których akcje są notowane na Giełdzie Papierów Wartościowych w Warszawie. Analiza będzie obejmować ostateczną wysokość wypłacanej dywidendy. W celu badania procesu zastosuje się metody badań literaturowych opartych na analizie krajowych i zagranicznych publikacji oraz dokonania empirycznej analizy zjawiska. 2. NRI jako wskaźnik rozwoju społeczeństwa informacyjnego w PolsceKlaudia Walencik Uniwersytet Ekonomiczny w Katowicach Tematyka wystąpienia obejmie zastosowanie technologii informacyjno-komunikacyjnych w Polsce i ocenę informatyzacji społeczeństwa za pomocą wskaźnika NRI (ang. Networked Readiness Index). Innowacje i technologie ICT (ang. Information and Communication Technologies) stanowią główne czynniki pobudzające konkurencyjność i efektywność gospodarki oraz umożliwiające redukcję ekonomicznych, cyfrowych i społecznych podziałów w obrębie państwa. Dlatego też pomiar poziomu rozwoju technologii ICT, ich wpływu na ekonomię i życie społeczne oraz gotowości krajów do ich wykorzystania są niezwykle ważne. W tym celu wykorzystywane są odpowiednie wskaźniki, m.in. indeks gotowości sieciowej – NRI, na którym skupi się autorka. Opisane zostaną składające się na w/w indeks zmienne oraz zinterpretowana zostanie jego wartość w Polsce na tle innych krajów UE. Ukazana zostanie również tendencja zmian w kształtowaniu się wskaźnika zachodzących w badanym państwie. NRI jest miernikiem gotowości państwa do wykorzystania możliwości oferowanych przez technologie ICT, na który składa się 68 zmiennych. Wskaźnik ten jest publikowany corocznie przez Światowe Forum Ekonomiczne (World Economic Forum) we współpracy Szkołą Biznesu INSEAD w raporcie The Global Information Technology Report. W trakcie wystąpienia przedstawione zostaną również alternatywne wskaźniki służące pomiarowi stopnia rozwoju społeczeństwa informacyjnego i ekonomii opartej na wiedzy, takie jak ISI, DOI, DAI czy IDI. Celem wystąpienia jest zbadanie zróżnicowania rozwoju informatycznego Polski na tle innych krajów Unii Europejskiej i stopnia informatyzacji społeczeństwa oraz zaprezentowanie możliwości, jakie niesie za sobą wykorzystanie narzędzi informacyjno-komunikacyjnych. 3. Zastosowanie rozszerzonego algorytmu AMUSE do oceny podobieństwa finansowych szeregów czasowychTomasz Soboń, dr hab. Ryszard Szupiluk Szkoła Główna Handlowa w Warszawie W przypadku danych finansowych można wskazać wiele sytuacji, w których podobne formacje analizy technicznej nie są efektywnie identyfikowane na bazie standardowych metod korelacyjnych lub typowych miar odległości. Także w problematyce doboru miar zależności oraz podobieństwa w zagadnieniu budowy optymalnego portfela inwestycyjnego w modelu APT lub teorii Markowitza istnej kwestia efektywności stosowanych metod. W niniejszym artykule zaprezentujemy nowe podejście do oceny podobieństwa finansowych szeregów czasowych w kontekście modelu ATP oraz automatycznych systemów transakcyjnych. W tym celu zastosujemy metody ślepej separacji sygnałów (ang. BSS - Blind Signal Separation) - w szczególności rozszerzoną wersję algorytmu AMUSE umożliwiającą eksplorację statystyk drugiego oraz wyższych rzędów. Zastosowanie metod BSS pozwala na wyodrębnienia ukrytych komponentów zawartych w finansowych szeregach czasowych, których wzajemna analiza pozwala na ujawnienie głębszych zależności w analizowanych danych. W tym celu na bazie zidentyfikowanych komponentów zdefiniujemy szereg tzw. „charakterystyk morfologicznych”. Punktem wyjścia dla rozszerzonej wersji algorytmu AMUSE jest zdefiniowanie uogólnionej nieliniowej macierzy korelacji postaci, gdzie jest wektorem stóp zwrotu, jest odpowiednio dobraną funkcja nieliniową, są parametrami określającymi proporcje między standardową macierzą korelacji oraz nieliniową macierzą korelacji, zaś K oraz J są zbiorami wartości opóźnień odpowiednio dla standardowej oraz nieliniowej macierzy korelacji. Eksploracja macierzy pozwala na estymację ukrytych komponentów zawartych w finansowych szeregach czasowych . W praktycznym eksperymencie bazując na danych z warszawskiej GPW porównamy charakterystyki finansowych szeregów czasowych analizując nowe oraz klasyczne miary zależności i podobieństwa zastosowane do ukrytych komponentów. Szczególną uwagę poświęcimy zgodności otrzymywanych wyników z oceną ekspercką co może być istotne w projektowaniu automatycznych systemów inwestycyjnych, w których wskazane jest łączyć podejście mechaniczne z wiedzą teoretyczną. 4. Cross-cultural study of problematic Internet use in nine European countriesStéphanie Laconi, dr Katarzyna Kaliszewska-Czeremska, Daria J.Kuss, Antonio Gnisci, Ida Sergi, Antonia Barke, Franziska Jeromin, Jarosław Groth, Manuel Gamez-Guadix, Neslihan Keser Ozcan, Zolt Demetrovics, Orsolya KirályKonstantinos Siomos, George Floros Akademia Ignatianum Objectives: The main objective of this study was to explore and compare the prevalence of Problematic Internet Use (PIU) among European Internet users by taking gender into account, and to assess their relationships with psychopathological symptoms. Methods: Our total sample consisted of 5593 Internet users (2129 men), aged between 18 and 87 years old (M = 25.81; SD = 8.61). Recruited online, they completed several scales about their Internet use and psychopathology. 5. Systematyczny przegląd literaturyAgnieszka Orłowska Katolicki Uniwersytet Lubelski Jana Pawła II Prowadzenie wszelkiego rodzaju projektów badawczych bez przeprowadzenia przeglądu badań jest jak podróżowanie po egzotycznych krajach, ale bez opuszczania hotelu (Booth, Sutton i Papaioannou, 2012). Tworzenie nowej wiedzy wymaga rozpoznania istniejącego stanu rzeczy. Jednak interdyscyplinarność wielu dziedzin nauki, niesie za sobą wiele trudności w poznaniu dorobku nauki. Naprzeciw temu wyzwaniu wychodzi właśnie metoda systematycznego przeglądu badań. Celem niniejszej prezentacji jest opis metody przeglądu systematycznego – obiektywnej i powtarzalnej oceny badań/programów społecznych – dostarczającej wiarygodnych danych na rzecz świadomego kształtowania polityk społecznych, w tym edukacyjnych. Jest to rodzaj przeglądu literatury skupiający się na jednym zagadnieniu wykonanym w oparciu o dowody naukowe, czyli wiarygodne publikacje wyników pierwotnych badań naukowych (pierwotne źródło wiedzy), zawierającym opis identyfikacji, oceny, wyboru i podsumowania tych wyników. 6. GNSS źródłem informacji przestrzennej opisującej ruch w mieścieMateusz Ilba Uniwersytet Ekonomiczny w Krakowie W pracy zostanie zaprezentowany sposób analizy bardzo dużej ilości danych śladów GPS należących do otwartego zbioru danych OpenStreetMap. Podczas przetwarzania informacji zostaną wykorzystane systemy baz danych z rozszerzeniami przystosowanymi do obsługi obiektów przestrzennych, między innymi SQLite SpatiaLite, PostgreSQL PostGIS oraz Oracle Spatial. Autor przedstawi sposób wyznaczenia tras najczęściej uczęszczanych, najpopularniejsze cele wybierane przez użytkowników, relacje odnoszące się do punktu początkowego i końcowego trasy. Przy okazji zostaną wyznaczone obszary, w których zasięg sygnałów satelitarnych może zostać utracony (co w gęstej zabudowie miejskiej jest częstym zjawiskiem). Obszarem opracowania będzie miasto Kraków oraz Centrum Berlina. 7. Analiza transferu temperatury w obrębie fizycznego modelu nasypu hydrotechnicznegodr inż. Mariusz Cholewa, Tetiana Kutia, dr hab. inż. Andrzej Gruchot, dr inż. Tymoteusz Zydroń Uniwersytet Rolniczy im. Hugona Kołłątaja w Krakowie Proces transferu temperatury w podłożu gruntowym zależny jest od parametrów geotechnicznych gruntu oraz geometrii terenu. W dalszej perspektywie należy uwzględniać zmiany klimatyczne, jak również zmiany wywołane postępem ekonomicznym. Temperatura podłoża gruntowego ma większą bezwładność niż temperatura filtrującej w podłożu wody. Badania procesów termicznych w budowlach ziemnych mogą być prowadzone z wykorzystaniem sensorów zlokalizowanych wewnątrz konstrukcji. Dużą liczba rejestrowanych danych wymaga odpowiedniej aparatury a później analizy, najczęściej z wykorzystaniem narzędzi informatycznych. Referat przedstawia badania modelowe przeprowadzone na nasypie hydrotechnicznym. Uformowany z gruntu mineralnego model został opomiarowany zestawem czujników umieszczonych we wnętrzu budowli oraz w zbiorniku wody zasilającej i odpływowej. Kolejne sensory umożliwiały określenie położenia zwierciadła wody infiltrującej przez korpus. Trzeci system pomiarowy umożliwiał rejestrację zmian temperatury wokół i na powierzchni modelowego nasypu. Ilość i wielowątkowość zgromadzonych cyfrowo danych pozwoliła na przeprowadzenie testów analitycznych z wykorzystaniem narzędzi informatycznych. Powiązanie poszczególnych parametrów ze sobą przedstawia problem jeśli stosujemy szablonowe oprogramowanie inżynierskie. Wymagane jest wprowadzenia analizy uwarunkowań poszczególnych czynników, oraz statystycznej oceny istotności czynnika. 8. Zastosowanie wybranych narzędzi statystycznych w badaniach hydrogeochemicznychAnna Mika, Piotr Rusiniak AGH w Krakowie Statystyka to nauka powszechnie stosowana nie tylko do interpretacji i prezentacji wyników, ale także do opisu wybranej cechy na podstawie próby losowej pobranej z danej populacji. W badaniach hydrogeochemicznych statystyka wykorzystywana jest przede wszystkim do wykonania charakterystyki chemicznej wód (podziemnych, powierzchniowych, termalnych) na podstawie pobranych próbek. Ponadto służy również do oceny jakości uzyskanych wyników. Niniejsza praca prezentuje wykorzystanie podstawowych statystyk opisowych do oceny stabilności stężeń krzemionki w wysokozmineralizowanych wodach, których pobór i analiza wykonywane były przez półtorej roku w odstępach jednego miesiąca. Podstawowym założeniem przy analizie stabilności jest normalny rozkład danych pomiarowych. Rozkład danych testowany jest za pomocą testów istotności Kołmogorowa-Smirnowa bądź Shapiro-Wilka wybieranych w zależności od wielkości próby. Analizowane dane dotyczące stężeń krzemionki charakteryzują się rozkładem normalnym. Stabilność stężeń krzemionki oceniono na podstawie analizy kart kontrolnych. Oceniana jest ona na podstawie położenia wyników kolejnych pomiarów względem górnej i dolnej zasadniczej granicy kontrolnej (x+3s; x-3s) oraz granic ostrzegawczych - górnej (x+2s) oraz dolnej (x-2s). Na podstawie przeprowadzonej analizy stwierdzono, że stężenie SiO2 w badanych wodach jest stabilne. Dodatkowo przeprowadzono analizę korelacji stężenia krzemionki względem wielkości wydatku eksploatacyjnego. Wykorzystując współczynnik korelacji liniowej r będący stosunkiem kowariancji zmiennych (x, y) i iloczynu odchyleń tych zmiennych można określić siłę zależności pomiędzy stężeniem krzemionki, a wielkością wydajności z jaką wypompowywana jest woda z otworu badawczego. W przypadku gdy zmienne są od siebie niezależne, zarówno wartość kowariancji jak i współczynnik korelacji są bliska zera. W przypadku analizowanego wskaźnika wykazano brak zależności między wielkością stężenia krzemionki a wydajnością ujęcia. Po określeniu charakteru rozkładu danych oraz ocenie ich stabilności w czasie wykonano obliczenia niepewności dla badanego parametru, a następnie porównano otrzymane wyniki z niepewnością podawaną przed laboratorium, w którym wykonywana była analiza. 9. Wykorzystanie transformaty Fouriera do wyceny opcji ilorazowychdr Arkadiusz Orzechowski Szkoła Główna Handlowa w Warszawie Przedmiotem opracowania jest wycena opcji ilorazowych przy wykorzystaniu transformaty Fouriera. Punktem wyjścia do analizy rozpatrywanego zagadnienia jest wyznaczenie wartości teoretycznych instrumentów finansowych bazujących na prawach pochodnych przy założeniu słuszności modelu F. Blacka i M. Scholesa. W ramach podejmowanych działań przedmiotem zainteresowania czyni się najpierw koncepcję martyngałową, zakładającą znajomość analitycznej postaci funkcji gęstości prawdopodobieństwa notowań giełdowych. Następnie, sprawdzana jest możliwość zastosowania podejścia P. Carra i D. Madana do określania cen sprawiedliwych przedmiotowych derywatów. Ostatecznie, analizie poddawane jest autorskie podejście bazujące na transformacie Fouriera zmierzające do usprawnienia procesu wyceny pod względem zarówno szybkości, jak i dokładności obliczeniowej. Warto zauważyć, iż proponowana koncepcja ma charakter uniwersalny, tzn. może być z powodzeniem zastosowana do określania wartości opcji w modelach uwzględniających zarówno skoki kursowe, tj. modelach R. Mertona i S. Kou’a, jak i stochastyczną zmienność wariancji stóp zwrotu z aktywów bazowych, np. modelu S. Hestona. |
||
13:00 – 14:40 |
RÓWNOLEGŁE SESJE NAUKOWE
|
||
14:40 – 15:00 |
Rozstrzygnięcie konkursu posterowego, podsumowanie i zakończenie konferencji |
||
15:00 – 15:45 |
Lunch |
Organizator wydarzenia
Predictive Solutions Sp. z o.o.[dawniej SPSS Polska]
ul. Retoryka 1
31-108 Kraków
Kontakt
Kontakt techniczny
508 138 069
Uczelnie
Monika Michalska
508 138 069
Instytuty badawcze
Marzena Ciesielska
508 383 955