analityczne wyzwania 2017


I Konferencja naukowa

12 grudnia 2017 /// Kraków

analityczne wyzwania 2017


I Konferencja naukowa

12 grudnia 2017 /// Kraków

analityczne wyzwania 2017


I Konferencja naukowa

12 grudnia 2017 /// Kraków

wiedza / doświadczenie / inspiracje

Pierwsza edycja Analitycznych wyzwań odbyła się w roku 2017 z inicjatywy użytkowników oprogramowania z rodziny IBM SPSS i Predictive Solutions, reprezentujących środowisko akademickie. Jej celem była integracja ludzi nauki wokół problematyki przetwarzania i analizy danych. Spotkanie pozwoliło stworzyć szeroką platformę współpracy dla pracowników naukowych do wymiany doświadczeń.

Program

wtorek
12 grudnia

 

 

9:00 – 10:00

Rejestracja uczestników

10:00 – 10:20

Uroczyste otwarcie konferencji

10:20 – 12:10

REFERATY PLENARNE


Metodologia analiz ilościowych dostarcza narzędzi, które pozwalają coraz lepiej uchwycić złożoność procesów społecznych. Celem mojego wystąpienia będzie ilustracja tego postępu na przykładzie stosowania regresji kwintylowej i imputacji wielokrotnej do analizy zależności między zarobkami a wykształceniem i płcią. Opierając się na danych z badań prowadzonych w latach 1988-2013 pokażę, na ile posługiwanie się bardziej zaawansowanymi metodami zapewnia lepszy wgląd w strukturę tych te zależności w porównaniu z tradycyjnym podejściem. Dodatkowym uzasadnieniem konieczności wychodzenia poza standardowe pakiety statystyczne będzie będzie wskazanie przydatności modeli diagonalnych i logarytmiczno-liniowych w analizach nad ruchliwością społeczną.

O autorze:
Profesor w Instytucie Filozofii i Socjologii PAN w Warszawie. W latach 2000-2012 dyrektor IFiS PAN. Zajmuje się badaniem obiektywnych i świadomościowych aspektów uwarstwienia społecznego, ruchliwości społecznej, metodologią badań społecznych i międzynarodowymi badaniami porównawczymi. Autor lub współautor 35 książek, w tym: „Społeczeństwa klasy średniej” (1994), „On the Verge of Convergence” (2000), „Hierarchie i bariery społeczne w latach 90-tych” (2000), „Women on the Polish Labour Market” (2001), „Ubóstwo w społeczeństwach postkomunistycznych” (2002), „O ruchliwości społecznej” (2004), „Struktura społeczna” (2007), „Sociological Tools. Measuring Occupations” (2009), „Podziały terytorialne, globalizacja a nierówności społeczne. Wprowadzenie do modeli wielopoziomowych” (2011), „Czy są w Polsce klasy społeczne?” (2015), „Prestige” (2015), „The Polish Middle Class” (2015). Redaktor naczelny czasopisma „Ask. Research&Methods”, poświęconego metodologii badań socjologicznych.


W wystąpieniu zostanie poruszony problem znajomości i wykorzystania zaawansowanej analizy danych w badaniach i kształceniu akademickim w Polsce, zwłaszcza w obszarze nauk społecznych, choć nie tylko. Mowa będzie o tym, dlaczego wyrafinowane kompetencje w tym zakresie są konieczne i jak tracimy na ich zbyt słabym, upowszechnianiu. Rozwiniemy także tezę, że analiza danych to coś więcej niż znajomość technik statystycznych czy maszynowego uczenia się.

O autorze:
Profesor nauk społecznych, socjolog i ekonomista, dziekan Wydziału Filozoficznego Uniwersytetu Jagiellońskiego, twórca i kierownik Centrum Ewaluacji i Analiz Polityk Publicznych UJ oraz kierownik Zakładu Socjologii Gospodarki, Edukacji i Metod Badań Społecznych w Instytucie Socjologii UJ. Specjalizuje się w zakresie metod badań społecznych, metodologii ewaluacji i analizy polityk publicznych, socjologii gospodarki i organizacji oraz statystycznej analizie danych. Aktualnie jest kierownikiem naukowym kilku dużych programów badawczych, w tym systemowego projektu Bilans Kapitału Ludzkiego. Były ekspert Banku Światowego, jest autorem licznych opracowań i ekspertyz. Członek Komitetu Polityki Naukowej w kadencji 2014-2016. Przewodniczący Rady Narodowego Kongresu Nauki.


Ustalenie cech fizycznych osoby na podstawie zebranego materiału genetycznego jest niezwykle istotne z punktu widzenia kryminalistyki. Dlatego prowadzi się badania, które mają na celu wykazać istnienie związku pomiędzy takimi cechami jak morfologia włosów czy kolor oczu a wytypowanymi polimorfizmami pojedynczego nukleotydu (SNP). Do tej pory najczęściej używano do tego metody regresji logistycznej. Okazuje się jednak, że zastosowanie innych metod eksploracji danych, zwłaszcza sieci neuronowych, może poprawiać dotychczasowe wyniki oraz pozwolić na budowę satysfakcjonującego modelu predykcyjnego. Dodatkowym aspektem prezentacji jest omówienie możliwości wykorzystania walidacji krzyżowej do oceny jakości otrzymanego modelu, co jest szczególnie cenne w przypadku dysponowania próbą o niewielkiej liczebności.

O autorce:
Doktor nauk matematycznych, obecnie adiunkt w Katedrze Teorii Prawdopodobieństwa i Analizy Stochastycznej Wydziału Matematyki i Informatyki Uniwersytetu Mikołaja Kopernika w Toruniu. Początkowo jej praca badawcza koncentrowała się na teorii procesów stochastycznych. Aktualnie zajmuje się zastosowaniem algorytmów eksploracji danych w badaniach medycznych i przyrodniczych Jej doświadczenia dydaktyczne są od lat związane ze statystyką i eksploracją danych. Ukończyła szereg kursów analizy danych, obecnie prowadzi m.in. akredytowane zajęcia laboratoryjne ze statystyki matematycznej w oparciu o program IBM SPSS Statistics dla studentów kierunków matematyka oraz matematyka i ekonomia. Swoimi doświadczeniami z pracy z pakietami statystycznymi dzieli się z innymi pracownikami nauki w ramach licznych kursów, szkoleń i warsztatów.


Komunikacja wyników analiz statystycznych w sposób strawny dla przeciętnego odbiorcy jest bardzo ważna. Jeśli wyniki nie zostaną przedstawione w przystępnej formie, ich przekaz może w ogóle nie dotrzeć do odbiorcy. W prezentacji przedstawione zostaną przykłady rozmaitych wizualizacji danych statystycznych i wyników analiz statystycznych, które pełnią nie tylko funkcję informacyjną, ale także perswazyjną. Omówione zostaną także podstawowe mechanizmy psychologiczne, mające znaczenie dla efektywności wizualizacji danych, bazujące na procesach percepcji wzrokowej i naiwnych metod przetwarzania informacji liczbowych. Na deser – przykłady błędów lub manipulacji ukrytych w przekazie obrazkowym.

O autorze:
Od kilkunastu lat prowadzi zajęcia z podstawowych i zaawansowanych technik analitycznych. Stale współpracuje z Predictive Solutions w prowadzeniu szkoleń z zakresu technik wielowymiarowych: analizy wariancji i analizy regresji, dla pracowników naukowych podczas Warsztatów Analitycznych. Aktywnie bierze udział w tworzeniu programu partnerskiego ARIADNA, zrzeszającego polskie uczelnie wykorzystujące IBM SPSS Statistics. Jest autorką i redaktorką niezwykle popularnych podręczników ukazujących się pod nazwą „Statystyczny Drogowskaz”, przybliżających problematykę podstawowych statystyk opisowych, jak również złożone analizy obejmujące modele wariancji, regresji i równań strukturalnych. Publikuje teksty w e-biuletynie Predictive Solutions, jak również pełni funkcję redaktora statystycznego w czasopismach naukowych z obszaru psychologii pracy (np. „Bezpieczeństwo Pracy”). Pracuje naukowo nad zagadnieniami związanymi z wpływem stereotypów dotyczących niskich zdolności matematycznych kobiet na ich wybory edukacyjne i wyniki w testach egzaminacyjnych.


Aby wody podziemne mogły zostać uznane za lecznicze, muszą spełnić szereg kryteriów określonych w aktualnie obowiązujących przepisach prawnych: ustawie Prawo Geologiczne i Górnicze (Dz.U. 2016, poz. 1131) oraz Rozporządzeniu Ministra Zdrowia z 13 kwietnia 2006 r. w sprawie zakresu badań niezbędnych do ustalenia właściwości leczniczych naturalnych surowców leczniczych i właściwości leczniczych klimatu, kryteriów ich oceny oraz wzoru świadectwa potwierdzającego te właściwości (Dz.U. 2006 nr 80 poz. 565). Jednym z warunków jest stabilność składu chemicznego wód w czasie. Analiza szeregów czasowych pozwala na identyfikację i ocenę ewentualnych trendów zmian jakości wód leczniczych. Kluczową kwestią jest dobór odpowiednich testów i właściwa interpretacja wyników. Głównym celem wystąpienia będzie zaprezentowanie możliwości programu PS IMAGO (IBM SPSS Statistics) w tym zakresie.

O autorze:
Chemik analityk, doktor nauk o Ziemi, obecnie asystent w Katedrze Hydrogeologii i Geologii Inżynierskiej na Wydziale Geologii, Geofizyki i Ochrony Środowiska AGH oraz Kierownik ds. jakości w akredytowanym Laboratorium Hydrogeochemicznym KHGI AGH. Naukowo zajmuje się m.in. analizą zmienności składu chemicznego wód – w tym np. wód leczniczych – z zastosowaniem zaawansowanych narzędzi statystycznych oraz metod modelowania hydrogeochemicznego. Ukończyła szereg kursów analizy danych, z których wiedzę wykorzystuje również w obszarze zarządzania jakością i kontroli jakości w badaniach laboratoryjnych i terenowych oraz dydaktyce.

12:10 – 12:20

Dyskusja

12:20 – 13:00

SESJA POSTEROWA
Przerwa na kawę


Istotnym problemem decyzyjnym w strategiach finansowych przedsiębiorstw jest wybór sposobu podziału zysku netto. Podział ten stanowi korzyść finansową dla akcjonariuszy. Dokonując podziału zysku nie oznacza, iż cały zysk zostanie wypłacony w formie gotówki lub w postaci wyemitowania nowych akcji. Ma to znaczenie dla spółki, ale również dla wielu grup interesów czy wypłata dywidendy zostanie zrealizowana. Celem opracowania jest ocena w jakim stopniu zróżnicowanie własnościowe i sektorowe wpływa na realizację polityki dywidendy w spółkach. Czy występuje zależność pomiędzy wielkością wypłaty dywidendy a udziałem Skarbu Państwa. Porównanie cech charakterystycznych różnych form transferu środków pieniężnych. W opracowaniu wykorzystano spółki giełdowe które podjęły decyzję realizacji polityki dywidendy. Artykuł odpowie na pytanie czy udział Skarbu Pastwa w strukturze własnościowej wpływa na realizację polityki dywidendy. Czy Skarb Państwa jako właściciel decyduje się na nadmierne pobranie dywidendy z kontrolowanych przezeń spółek notowanych na Giełdzie Papierów Wartościowych w Warszawie, przy ograniczeniach uwzględniających interes zarówno samych spółek jak i ich mniejszościowych akcjonariuszy. Czy istnieje zależność pomiędzy wyszczególnionymi zmiennymi. Badaniem objęto spółki wypłacające dywidendę, gdzie akcjonariuszem jest również Skarb Państwa, których akcje są notowane na Giełdzie Papierów Wartościowych w Warszawie. Analiza będzie obejmować ostateczną wysokość wypłacanej dywidendy. W celu badania procesu zastosuje się metody badań literaturowych opartych na analizie krajowych i zagranicznych publikacji oraz dokonania empirycznej analizy zjawiska.


Tematyka wystąpienia obejmie zastosowanie technologii informacyjno-komunikacyjnych w Polsce i ocenę informatyzacji społeczeństwa za pomocą wskaźnika NRI (ang. Networked Readiness Index). Innowacje i technologie ICT (ang. Information and Communication Technologies) stanowią główne czynniki pobudzające konkurencyjność i efektywność gospodarki oraz umożliwiające redukcję ekonomicznych, cyfrowych i społecznych podziałów w obrębie państwa. Dlatego też pomiar poziomu rozwoju technologii ICT, ich wpływu na ekonomię i życie społeczne oraz gotowości krajów do ich wykorzystania są niezwykle ważne. W tym celu wykorzystywane są odpowiednie wskaźniki, m.in. indeks gotowości sieciowej – NRI, na którym skupi się autorka. Opisane zostaną składające się na w/w indeks zmienne oraz zinterpretowana zostanie jego wartość w Polsce na tle innych krajów UE. Ukazana zostanie również tendencja zmian w kształtowaniu się wskaźnika zachodzących w badanym państwie. NRI jest miernikiem gotowości państwa do wykorzystania możliwości oferowanych przez technologie ICT, na który składa się 68 zmiennych. Wskaźnik ten jest publikowany corocznie przez Światowe Forum Ekonomiczne (World Economic Forum) we współpracy Szkołą Biznesu INSEAD w raporcie The Global Information Technology Report. W trakcie wystąpienia przedstawione zostaną również alternatywne wskaźniki służące pomiarowi stopnia rozwoju społeczeństwa informacyjnego i ekonomii opartej na wiedzy, takie jak ISI, DOI, DAI czy IDI. Celem wystąpienia jest zbadanie zróżnicowania rozwoju informatycznego Polski na tle innych krajów Unii Europejskiej i stopnia informatyzacji społeczeństwa oraz zaprezentowanie możliwości, jakie niesie za sobą wykorzystanie narzędzi informacyjno-komunikacyjnych.


W przypadku danych finansowych można wskazać wiele sytuacji, w których podobne formacje analizy technicznej nie są efektywnie identyfikowane na bazie standardowych metod korelacyjnych lub typowych miar odległości. Także w problematyce doboru miar zależności oraz podobieństwa w zagadnieniu budowy optymalnego portfela inwestycyjnego w modelu APT lub teorii Markowitza istnej kwestia efektywności stosowanych metod. W niniejszym artykule zaprezentujemy nowe podejście do oceny podobieństwa finansowych szeregów czasowych w kontekście modelu ATP oraz automatycznych systemów transakcyjnych. W tym celu zastosujemy metody ślepej separacji sygnałów (ang. BSS - Blind Signal Separation) - w szczególności rozszerzoną wersję algorytmu AMUSE umożliwiającą eksplorację statystyk drugiego oraz wyższych rzędów. Zastosowanie metod BSS pozwala na wyodrębnienia ukrytych komponentów zawartych w finansowych szeregach czasowych, których wzajemna analiza pozwala na ujawnienie głębszych zależności w analizowanych danych. W tym celu na bazie zidentyfikowanych komponentów zdefiniujemy szereg tzw. „charakterystyk morfologicznych”. Punktem wyjścia dla rozszerzonej wersji algorytmu AMUSE jest zdefiniowanie uogólnionej nieliniowej macierzy korelacji postaci, gdzie jest wektorem stóp zwrotu, jest odpowiednio dobraną funkcja nieliniową, są parametrami określającymi proporcje między standardową macierzą korelacji oraz nieliniową macierzą korelacji, zaś K oraz J są zbiorami wartości opóźnień odpowiednio dla standardowej oraz nieliniowej macierzy korelacji. Eksploracja macierzy pozwala na estymację ukrytych komponentów zawartych w finansowych szeregach czasowych . W praktycznym eksperymencie bazując na danych z warszawskiej GPW porównamy charakterystyki finansowych szeregów czasowych analizując nowe oraz klasyczne miary zależności i podobieństwa zastosowane do ukrytych komponentów. Szczególną uwagę poświęcimy zgodności otrzymywanych wyników z oceną ekspercką co może być istotne w projektowaniu automatycznych systemów inwestycyjnych, w których wskazane jest łączyć podejście mechaniczne z wiedzą teoretyczną.


Objectives: The main objective of this study was to explore and compare the prevalence of Problematic Internet Use (PIU) among European Internet users by taking gender into account, and to assess their relationships with psychopathological symptoms. Methods: Our total sample consisted of 5593 Internet users (2129 men), aged between 18 and 87 years old (M = 25.81; SD = 8.61). Recruited online, they completed several scales about their Internet use and psychopathology.


Prowadzenie wszelkiego rodzaju projektów badawczych bez przeprowadzenia przeglądu badań jest jak podróżowanie po egzotycznych krajach, ale bez opuszczania hotelu (Booth, Sutton i Papaioannou, 2012). Tworzenie nowej wiedzy wymaga rozpoznania istniejącego stanu rzeczy. Jednak interdyscyplinarność wielu dziedzin nauki, niesie za sobą wiele trudności w poznaniu dorobku nauki. Naprzeciw temu wyzwaniu wychodzi właśnie metoda systematycznego przeglądu badań. Celem niniejszej prezentacji jest opis metody przeglądu systematycznego – obiektywnej i powtarzalnej oceny badań/programów społecznych – dostarczającej wiarygodnych danych na rzecz świadomego kształtowania polityk społecznych, w tym edukacyjnych. Jest to rodzaj przeglądu literatury skupiający się na jednym zagadnieniu wykonanym w oparciu o dowody naukowe, czyli wiarygodne publikacje wyników pierwotnych badań naukowych (pierwotne źródło wiedzy), zawierającym opis identyfikacji, oceny, wyboru i podsumowania tych wyników.


W pracy zostanie zaprezentowany sposób analizy bardzo dużej ilości danych śladów GPS należących do otwartego zbioru danych OpenStreetMap. Podczas przetwarzania informacji zostaną wykorzystane systemy baz danych z rozszerzeniami przystosowanymi do obsługi obiektów przestrzennych, między innymi SQLite SpatiaLite, PostgreSQL PostGIS oraz Oracle Spatial. Autor przedstawi sposób wyznaczenia tras najczęściej uczęszczanych, najpopularniejsze cele wybierane przez użytkowników, relacje odnoszące się do punktu początkowego i końcowego trasy. Przy okazji zostaną wyznaczone obszary, w których zasięg sygnałów satelitarnych może zostać utracony (co w gęstej zabudowie miejskiej jest częstym zjawiskiem). Obszarem opracowania będzie miasto Kraków oraz Centrum Berlina.


Proces transferu temperatury w podłożu gruntowym zależny jest od parametrów geotechnicznych gruntu oraz geometrii terenu. W dalszej perspektywie należy uwzględniać zmiany klimatyczne, jak również zmiany wywołane postępem ekonomicznym. Temperatura podłoża gruntowego ma większą bezwładność niż temperatura filtrującej w podłożu wody. Badania procesów termicznych w budowlach ziemnych mogą być prowadzone z wykorzystaniem sensorów zlokalizowanych wewnątrz konstrukcji. Dużą liczba rejestrowanych danych wymaga odpowiedniej aparatury a później analizy, najczęściej z wykorzystaniem narzędzi informatycznych. Referat przedstawia badania modelowe przeprowadzone na nasypie hydrotechnicznym. Uformowany z gruntu mineralnego model został opomiarowany zestawem czujników umieszczonych we wnętrzu budowli oraz w zbiorniku wody zasilającej i odpływowej. Kolejne sensory umożliwiały określenie położenia zwierciadła wody infiltrującej przez korpus. Trzeci system pomiarowy umożliwiał rejestrację zmian temperatury wokół i na powierzchni modelowego nasypu. Ilość i wielowątkowość zgromadzonych cyfrowo danych pozwoliła na przeprowadzenie testów analitycznych z wykorzystaniem narzędzi informatycznych. Powiązanie poszczególnych parametrów ze sobą przedstawia problem jeśli stosujemy szablonowe oprogramowanie inżynierskie. Wymagane jest wprowadzenia analizy uwarunkowań poszczególnych czynników, oraz statystycznej oceny istotności czynnika.


Statystyka to nauka powszechnie stosowana nie tylko do interpretacji i prezentacji wyników, ale także do opisu wybranej cechy na podstawie próby losowej pobranej z danej populacji. W badaniach hydrogeochemicznych statystyka wykorzystywana jest przede wszystkim do wykonania charakterystyki chemicznej wód (podziemnych, powierzchniowych, termalnych) na podstawie pobranych próbek. Ponadto służy również do oceny jakości uzyskanych wyników. Niniejsza praca prezentuje wykorzystanie podstawowych statystyk opisowych do oceny stabilności stężeń krzemionki w wysokozmineralizowanych wodach, których pobór i analiza wykonywane były przez półtorej roku w odstępach jednego miesiąca. Podstawowym założeniem przy analizie stabilności jest normalny rozkład danych pomiarowych. Rozkład danych testowany jest za pomocą testów istotności Kołmogorowa-Smirnowa bądź Shapiro-Wilka wybieranych w zależności od wielkości próby. Analizowane dane dotyczące stężeń krzemionki charakteryzują się rozkładem normalnym. Stabilność stężeń krzemionki oceniono na podstawie analizy kart kontrolnych. Oceniana jest ona na podstawie położenia wyników kolejnych pomiarów względem górnej i dolnej zasadniczej granicy kontrolnej (x+3s; x-3s) oraz granic ostrzegawczych - górnej (x+2s) oraz dolnej (x-2s). Na podstawie przeprowadzonej analizy stwierdzono, że stężenie SiO2 w badanych wodach jest stabilne. Dodatkowo przeprowadzono analizę korelacji stężenia krzemionki względem wielkości wydatku eksploatacyjnego. Wykorzystując współczynnik korelacji liniowej r będący stosunkiem kowariancji zmiennych (x, y) i iloczynu odchyleń tych zmiennych można określić siłę zależności pomiędzy stężeniem krzemionki, a wielkością wydajności z jaką wypompowywana jest woda z otworu badawczego. W przypadku gdy zmienne są od siebie niezależne, zarówno wartość kowariancji jak i współczynnik korelacji są bliska zera. W przypadku analizowanego wskaźnika wykazano brak zależności między wielkością stężenia krzemionki a wydajnością ujęcia. Po określeniu charakteru rozkładu danych oraz ocenie ich stabilności w czasie wykonano obliczenia niepewności dla badanego parametru, a następnie porównano otrzymane wyniki z niepewnością podawaną przed laboratorium, w którym wykonywana była analiza.


Przedmiotem opracowania jest wycena opcji ilorazowych przy wykorzystaniu transformaty Fouriera. Punktem wyjścia do analizy rozpatrywanego zagadnienia jest wyznaczenie wartości teoretycznych instrumentów finansowych bazujących na prawach pochodnych przy założeniu słuszności modelu F. Blacka i M. Scholesa. W ramach podejmowanych działań przedmiotem zainteresowania czyni się najpierw koncepcję martyngałową, zakładającą znajomość analitycznej postaci funkcji gęstości prawdopodobieństwa notowań giełdowych. Następnie, sprawdzana jest możliwość zastosowania podejścia P. Carra i D. Madana do określania cen sprawiedliwych przedmiotowych derywatów. Ostatecznie, analizie poddawane jest autorskie podejście bazujące na transformacie Fouriera zmierzające do usprawnienia procesu wyceny pod względem zarówno szybkości, jak i dokładności obliczeniowej. Warto zauważyć, iż proponowana koncepcja ma charakter uniwersalny, tzn. może być z powodzeniem zastosowana do określania wartości opcji w modelach uwzględniających zarówno skoki kursowe, tj. modelach R. Mertona i S. Kou’a, jak i stochastyczną zmienność wariancji stóp zwrotu z aktywów bazowych, np. modelu S. Hestona.

13:00 – 14:40

RÓWNOLEGŁE SESJE NAUKOWE

Dostarczanie rzetelnej, aktualnej i precyzyjnej informacji dla gospodarki i społeczeństwa jest jednym z najważniejszych zadań organów statystyki publicznej. Wraz z postępującym rozwojem, popyt na informację jest coraz większy, w coraz większej liczbie przekrojów o coraz lepszej jakości. Przeprowadzane cyklicznie i ad-hoc badania reprezentacyjne dostarczają informacji bogatej merytorycznie i wielowymiarowej, jednak ograniczenia wynikające ze stosunkowo niewielkiej liczebności próby powodują, że precyzja estymatorów zmniejsza się wraz ze zwiększaniem liczby publikowanych przekrojów. Powoduje to, że informacje dotyczące tzw. małych domen (szczegółowych przekrojów) nie są publikowane ze względu na nieakceptowalnie duży błąd losowy. Źródła pełne, jak rejestry administracyjne, czy dane spisowe charakteryzują się pełnym lub prawie pełnym pokryciem, jednak ich zawartość merytoryczna zwykle jest mniejsza niż w przypadku badań częściowych. Na ich podstawie publikowane są szczegółowe tabele, jednak o stosunkowo niewielkiej liczbie wymiarów. Połączenie informacji z wielu źródeł może prowadzić do poprawy jakości i precyzji szacunków dokonywanych na podstawie badań częściowych. Nowoczesne metody statystycznej integracji danych, statystyki małych obszarów oraz przestrzennej mikrosymulacji w istotny sposób przyczyniają się do zmniejszania błędów losowych i nielosowych bez konieczności zwiększania liczebności próby, czy przeprowadzania nowych badań. W wystąpieniu przedstawione zostaną metody generowania pełnych zbiorowości statystycznych z wykorzystaniem danych jednostkowych z badań częściowych z jednoczesnym zachowaniem łącznych rozkładów oszacowanych na podstawie źródeł pełnych. Przedstawiony zostanie algorytm symulacji, wyniki oraz ocena jakości i precyzji oszacowań ze szczególnym uwzględnieniem małych domen.


Przebaczenie jest złożonym zjawiskiem, uzależnionym od wielu czynników. Celem prezentowanych badań była odpowiedź na pytanie jaka jest zależność między postrzeganiem wartości relacji ze sprawcą krzywdy, intencją działania sprawcy i skruchą wyrażaną przez sprawcę a motywacją do przebaczenia. W badaniu, o charakterze eksperymentalnym, wzięło udział 218 studentów, w wieku 19-21 lat. Osoby badane zostały podzielone na osiem grup. Każda z grup miała za zadanie wyobrażenie sobie sytuacji krzywdy, charakteryzującej się jedną z ośmiu możliwych konfiguracji trzech analizowanych wymiarów: wartościowości, intencji i skruchy. Następnie badani wypełniali Inwentarz Motywacji Interpersonalnej w Sytuacji Krzywdy TRIM-18. Wyniki wskazują, że wartościowość relacji wiąże się istotnie dodatnio z motywacją do przebaczenia, niezależnie od intencji działania sprawcy i skruchy wyrażanej przez sprawcę. Uzyskane rezultaty zinterpretowano w terminach adaptacyjności i dezadaptacyjności przebaczenia, rozumianego jako chęć utrzymania pozytywnej relacji ze sprawcą krzywdy.


Biura Karier to specyficzne jednostki działające z jednej strony w strukturach uczelni, a z drugiej - ściśle współpracujące z rynkiem pracy. Zatem, klientami biur są nie tylko studenci oraz absolwenci, ale również pracodawcy. W wystąpieniu pokażę, w jaki sposób zastosowanie ilościowych metod badawczych służy optymalizacji działalności biura w zakresie satysfakcji odbiorców naszych usług, począwszy od takich elementów ewaluacji jak zwykły pomiar zadowolenia klienta, a kończąc na bardziej zaawansowanych projektach, jak badania pracodawców. Wypracowany system oceny takich działań biura jak doradztwo, mentoring, organizacja szkoleń, targów pracy czy praktyk studenckich dostarcza cennych danych determinujących rozwój i strategię jednostki, gdyż niezależnie od skali realizowanych projektów, zawsze stawiamy na praktyczne zastosowanie wyników. Odbiorcami wniosków i rekomendacji zawartych w raportach są nie tylko pracownicy biura, ale również inne jednostki uczelni, studenci, absolwenci oraz współpracujący z nami pracodawcy.


Wypalenie zawodowe to syndrom psychologiczny wynikający z doświadczania przez pracowników chronicznego stresu, będącego efektem zaburzonej równowagi pomiędzy środowiskiem pracy a możliwościami jednostki. Zainteresowanie tematem wypalenia związane jest ze wzrastającym zapotrzebowaniem na wspieranie grup zawodowych, które wg literatury przedmiotu są szczególnie narażone na doświadczanie negatywnych skutków wyczerpującej pracy zawodowej, czyli pracowników opieki medycznej oraz edukacji (Maslach, Leiter, 2008, 2010, 2011). Celem badań pierwotnych była ocena postrzegania zjawiska wypalenia przez polskich pracowników sektora: edukacji, szkolnictwa wyższego oraz opieki medycznej. Badanie przeprowadzono w czerwcu i w lipcu 2017 r. na próbie 153 respondentów w ramach projektu współpracy ponadnarodowej dedykowanego wypracowaniu skutecznego narzędzia prewencji wypalenia zawodowego. Do pomiaru wykorzystano dwa typy kwestionariuszy. Pierwszym był Kwestionariusz Wypalenia Zawodowego LBQ, który jest adaptacją włoskiego kwestionariusza Link Burnout Questionnaire (Santinello, 2008). Narzędzie to umożliwia diagnozę czterech aspektów wypalenia, tj. wyczerpania psychofizycznego, braku zaangażowania w relacje z klientami (podopiecznymi), poczucia braku skuteczności zawodowej oraz rozczarowania pracą zawodową. Drugi to autorski kwestionariusz mający na celu ocenę rozpoznawalności zjawiska wśród polskich pracowników. Do analizy wyników badań wykorzystano m.in. tablice kontyngencji, metody klasyfikacji (TwoSteps Cluster Analysis), analizę czynnikową, testy na istotność różnic, modele regresji logistycznej. Zastosowane narzędzia i metody badawcze pozwoliły na znalezienie odpowiedzi na następujące pytania badawcze: 1) Czy wypalenie zawodowe jest (i w jakim stopniu) zjawiskiem dostrzeganym (uświadamianym) przez polskich pracowników? 2) Czy występują różnice w postrzeganiu i objawach wypalenia zawodowego pomiędzy reprezentantami trzech analizowanych grup zawodowych? 3) Czy jest związek (jeśli tak to jaki) pomiędzy poziomem wypalenia zawodowego i jego komponentów a czynnikami demograficznymi, awersją do pracy, oraz rozwijaniem własnych zainteresowań?


Jednym z podstawowych celów sondaży o charakterze porównawczym jest dostarczenie badaczowi danych pozwalających na poprawne metodologicznie wnioskowanie o międzykrajowych różnicach w wartościach pewnych konstruktów (skal pomiarowych) uwzględnionych w badaniu. Tym samym problematyka szeroko pojętej ekwiwalentności uzyskiwanych danych / wyników w badaniach realizowanych w różnych krajach, stanowi jeden z najważniejszych obszarów refleksji metodologicznej nad jakością sondaży porównawczych w ogóle. Studia metodologiczno-empiryczne skupiają się przy tym wokół dwóch podstawowych zagadnień, tj.: (1) porównywalności schematów doboru oraz terenowej realizacji sondażowych prób badawczych, (2) porównywalności procesu uzyskiwania odpowiedzi z uwzględnieniem ekwiwalentności pomiarowej konstruktów latentnych. W referacie przedstawione zostaną przykłady ilustrujące drugi ze wskazanych obszarów problemowych. Na podstawie danych pochodzących z 21 krajów uczestniczących w siódmej rundzie Europejskiego Sondażu Społecznego (N=39.898) omówione zostaną procedury służące ocenie ekwiwalencji pomiarowej skali zaufania do krajowych instytucji politycznych. Skala ta oparta jest na pięciu wskaźnikach bazowych, w tym na: zaufaniu do parlamentu, systemu prawnego, policji, polityków oraz partii politycznych. Podane zostaną podstawowe pojęcia związane z analizą ekwiwalentności pomiarowej konstruktów latentnych, tj.: inwariancji konfiguralnej, metrycznej oraz skalarnej. Inwariancja konfiguralna testowana będzie poprzez implementację procedury konfirmacyjnej analizy czynnikowej CFA. Z kolei, inwariancja metryczna oraz inwariancja skalarna oceniana będzie poprzez analizę miar dobroci dopasowania zagnieżdżonych modeli pomiarowych w wielogrupowej analizie ścieżkowej SEM. Rezultaty prowadzonych badań ukażą problemy z pomiarem pewnych bazowych pytań w niektórych krajach, co z kolei utrudnia międzykrajowe porównania wartości skali poziomu zaufania do krajowych instytucji politycznych. Przedstawione zostaną również procedury pozwalające na poprawę jakości modeli pomiarowych, m.in. poprzez analizę tzw. wskaźników modyfikacji. Analizy danych wsparte zostaną oprogramowaniem IBM SPSS AMOS.


Dziś większość badaczy zgadza się co do tego, iż wysoki poziom funkcjonowania poznawczego pracowników jest jednym z kluczowych czynników prowadzących do wysokiego poziomu wykonania pracy. Wciąż jednak niewiele wiadomo o tym, w jaki sposób funkcjonowanie poznawcze wiąże się z pozytywnym emocjonalno-poznawczym stanem umysłu, jakim jest zaangażowanie w pracę. Dlatego postawiłem sobie pytanie: w jaki sposób sprawność poznawcza człowieka wiąże się z zaangażowaniem w pracę? W ramach prowadzonych przeze mnie badań, finansowanych przy wsparciu NCN, grupa 383 dorosłych pracujących osób wykonała zestaw testów zdolności poznawczych oraz wypełniła kwestionariusze oceny różnych aspektów ich pracy zawodowej. W ramach wystąpienia chciałbym podzielić się doświadczeniami oraz wątpliwościami nabytymi podczas analizowania związków pomiędzy sprawnością pamięci roboczej a zaangażowaniem w pracę. Podczas planowanego wystąpienia poruszę kilka zagadnień związanych z testowaniem związków pośrednich w modelach równań strukturalnych. 1) Postaram się poszukać odpowiedzi na pytanie, czy istnienie bezpośredniego związku między dwiema zmiennymi A → B jest warunkiem istnienia między tymi zmiennymi relacji pośredniej A → X →B (ang. indirect effect) ? 2) Omówię napotkaną przeze mnie sytuację supresji, w której wprowadzenie dodatkowej zmiennej do modelu równań strukturalnych ujawnia niewidoczną wcześniej relację między zmiennymi. 3) Opowiem o „odkrytej” przeze mnie metodzie testowania specyficznych efektów pośrednich (ang. specific indirect effect) w wielozmianowych modelach mediacyjnych (ang. multiple mediator models) z wykorzystaniem user-defined estimands oprogramowania IBM AMOS. Co ciekawe, według niektórych autorów testowanie specyficznych efektów pośrednich jest niemożliwe z wykorzystaniem AMOS (por. Perera, 2013; Macho i Ledermann, 2011). Oszacowanie specyficznych efektów mediacyjnych istotne jest w modelach, w których interesująca nas zmienna wyjaśniająca wiąże się ze zmienną wyjaśnianą poprzez więcej niż jedną relację pośrednią. 4) Na zakończenie przedstawię refleksję na temat roli podłoża teoretycznego w tworzeniu i testowaniu modeli równań strukturalnych.


Agregacja modeli jest intensywnie rozwijanym obszarem współczesnej analizy danych - w szczególności w zakresie metod uczenia maszynowego. Jednym z powodów tego stanu rzeczy jest stosunkowo duża liczba efektywnych metod predykcyjnych. W efekcie, istotnego postępu można upatrywać na etapie łączenia różnych rozwiązań. Jednak podejście wielomodelowe z reguły stawia duże wymagania środowiskom analitycznym, w których tworzone a następnie agregowane są modele. W konsekwencji zasadniczy wysiłek badawczy przenosi się na płaszczyznę analityki systemowej, gdzie kluczową role odgrywają algorytmy koordynujące współpracę różnych systemów. W naszym przypadku jako warstwę łączącą różne modele rozwiniemy platformę SORCER. Platforma ta implementuje federację usług S2S (ang. Service to Service) tworząc metaobliczeniowe środowisko oparte na semantyce Jinii. W środowisku tym poszczególne modele predykcyjne (dostawcy usług) traktowane są jako obiekty sieciowe zorganizowane w obiektowo zorientowaną architekturę federacji usług (ang. FSOO – Federated Service Object-Oriented Architecture). Pozwala ona na zintegrowanie różnych środowisk analitycznych (np. Matlab, Octave, SPSS, SAS) tworząc ponad nimi warstwę dysponującą własnym językiem modelowania. Modele prognostyczne mogą być w tej warstwie reprezentowane w uniwersalny sposób niezależnie od stosowanego algorytmu oraz implementującego go środowiska. Infrastruktura platformy SORCER pozwala ponadto na wykonywanie obliczeń w środowisku rozproszonym koordynując zadania w sposób synchroniczny lub asynchroniczny z wykorzystaniem algorytmu opartego na idei Tuple Spaces, co zapewnia także dobór modeli według wskazanych parametrów. Dodatkowo, stosowane algorytmy umożliwiają dynamiczne przydzielanie zasobów obliczeniowych oraz rozliczanie ich użycia zapewniając niezawodność i wydajność prowadzonych analiz. Na bazie tej platformy przedstawimy koncepcję budowy oraz agregacji różnych modeli - także już istniejących jednak osadzonych w odmiennych środowiskach analitycznych.


Współczesne wielkie eksperymenty fizyki wysokich energii rejestrują olbrzymie ilości danych, jednakże tylko bardzo niewielką ich część stanowią zderzenia cząstek, które niosą informację o nowych, nieznanych zjawiskach (typowo jeden na około 100 mln). Wyselekcjonowanie i analiza zebranych przypadków wymaga zarówno wielkich farm komputerowych, jak i coraz bardziej efektywnych algorytmów selekcji. Selekcja danych rozpoczyna się już w momencie zarejestrowania przypadku w detektorze, gdy dedykowane systemy wyzwalania wybierają potencjalnie interesujące przypadki zderzeń cząstek i tylko one są zapisywane do dalszej analizy. W następnym etapie następuje rekonstrukcja wielkości fizycznych oraz wstępna selekcja zarejestrowanych przypadków, które zostaną użyte do dalszej analizy. Podczas analizy i selekcji interesujących przypadków fizycy cząstek elementarnych coraz częściej sięgają po metody oparte na uczeniu maszynowym. Takie algorytmy, jak sieci neuronowe czy wzmocnione drzewa decyzyjne (Boosted Decision Trees) okazały się bardzo skuteczne, w związku z tym stały się już rutynowymi metodami analizy danych. Ich skuteczność opiera się głównie na tym, że zdecydowana większość danych spotykanych w fizyce jest wielowymiarowa, a wtedy należy uwzględnić korelacje pomiędzy nimi, nieraz bardzo skomplikowane. Najbardziej efektywnie można to zrobić, używając metod uczących się na przykładach, czyli uczenia maszynowego. W ostatnich latach coraz częściej używane są algorytmy głębokiego sieci uczenia (Deep Learning), łączące uczenie bez nauczyciela z uczeniem nadzorowanym i pozwalające bardziej wydajnie wykorzystać informacje zawarte w danych. Istotne jest także to, że stosowane głębokie sieci neuronowe mogą używać większej liczby podstawowych zmiennych zamiast kilku zmiennych wyższego rzędu zaproponowanych przez fizyków. Ich zastosowanie jest następnym krokiem w kierunku automatyzacji procesu analizy danych i zwiększenia jego wydajności.


Na podstawie bazy danych, zawierającej obserwacje z 33 680 zakwalifikowanych dotychczasowych startów w wyborach bezpośrednich do stanowisk kierownika gminnej egzekutywy, zaprezentowana zostanie analiza RDD. Pozwoli to na ujawnienie przewagi wyborczej inkumbentów w zakresach: prawdopodobieństwa kandydowania i zwycięstwa w wyborach kolejnych; przewagi (vote margin), uzyskiwanej nad pretendentami; czy dysproporcji siły inkumbentów (vote share). Metoda RDD po raz pierwszy zastosowana w latach 60-tych nie jest szerzej znana w Polsce, a relatywnie dosyć często wykorzystywana w analizach wyborczych na świecie.


Generowane przepływy pieniężne stanowią jeden z czynników determinujących zdolność podmiotu do kontynuowania działalności gospodarczej. Szczególnie ważne są przepływy w obszarze operacyjnym, związane z podstawową działalnością przedsiębiorstwa. Wynikają one ze sprzedaży towarów, produktów lub usług wykazywanych jako wpływy oraz wydatków ponoszonych na zakup materiałów, energii, wynagrodzeń, jak i wszelkich wypłat o charakterze publicznoprawnym . Saldo netto operacyjnych przepływów pieniężnych stanowi cenną informację w ocenie projektów inwestycyjnych, prognozie upadłości spółek czy wycenie instrumentów finansowych . Ostatnie zastosowanie stanowi przedmiot wystąpienia. Autor podejmuje w nim zagadnienie dotyczące możliwości prognozy kierunku zmiany cen akcji spółek z indeksów WIG20 i mWIG40 Giełdy Papierów Wartościowych w Warszawie na podstawie zmian salda netto przepływów z działalności operacyjnej. Analiza współzależności zostanie przeprowadzona przy wykorzystaniu współczynnika korelacji liniowej Pearsona. Na podstawie dokonanych obliczeń, obejmujących zarówno bezwzględne jak i względne zmiany przepływów operacyjnych i kursów akcji, nie stwierdzono silnej dodatniej zależności liniowej między zmiennymi. Ponadto w niektórych przekrojach analizy korelacja ta ma charakter ujemny, świadczący o różnokierunkowych zmianach wykorzystanych zmiennych. Trudno zatem mówić o możliwości prognozy kierunku zmiany kursów akcji wymienionych spółek na podstawie zmiany salda netto ich przepływów operacyjnych.


Coraz więcej państw w Europie boryka się z problemem starzejącego się społeczeństwa. Wzrost przewidywalnej długości życia skutkuje wzrostem wydatków państwowych na emerytury oraz inne świadczenia socjalne. W dalszej perspektywie wymusza to reformy obowiązujących systemów, m. in. zwiększenie wieku emerytalnego, tak aby były one bardziej efektywne. Kraje bałtyckie, tzn. Estonia, Litwa i Łotwa są państwami, które do lat 90. XX wieku tworzyły wraz z innymi krajami Związek Socjalistycznych Republik Radzieckich (ZSRR). Dotychczas każde z nich miało takie same regulacje prawne w zakresie systemu emerytalnego, ale po ogłoszeniu suwerenności dokonały one szeregu zmian. Sprawiły one, że w każdym z tych państw sytuacja osób starszych, tzn. w wieku przedemerytalnym i emerytalnym kształtuje się inaczej. Poszukiwanie najlepszych rozwiązań, które można wdrożyć w danym kraju jest bardzo skomplikowane. Wprowadzone zmiany dają bowiem efekty po latach. Dodatkowo należy uwzględnić okresy przejściowe, które pozwolą obywatelom dostosować się do nowych warunków. Istotnym problemem jest opór społeczny wobec dłuższego czasu pracy, co przekłada się na dłuższy czasu oskładkowania wynagrodzeń. Celem pracy jest identyfikacja związków pomiędzy podstawowymi zmiennymi systemu emerytalnego - wiekiem emerytalnym (zarówno ustawowym jak i rzeczywistym) stopą zastąpienia, minimalną emeryturą oraz stopą bezrobocia osób starszych. Przeprowadzone analizy mogą okazać się pomocną wskazówką dla rządzących szczególnie w kontekście dalszych reform systemów emerytalnych. Są one również istotne dla obywateli - mogą ułatwić podjęcie decyzji dotyczących skorzystania z możliwości przejścia na emeryturę lub kontynuowania swojej kariery zawodowej. W pracy zastosowano krytyczną analizę literatury przedmiotu, miary statystyki opisowej oraz analizę korelacji. Źródłem danych empirycznych są urzędy statystyczne poszczególnych państw - Statistikaamet (Estonia), Lietuvos statistikos departamente (Litwa), Centrālā statistikas pārvalde (Łotwa), a także Eurostat.


Coraz powszechniejsze staje się realizowanie badań społecznych i marketingowych wykorzystując Internet jako kanał kontaktu z respondentem. Większość paneli badawczych uniemożliwia realizowanie prób reprezentatywnych dla populacji generalnej. Prezentacja ma na celu przybliżenie problemu uogólniania wyników badań realizowanych za pośrednictwem paneli badawczych i/lub portali społecznościowych. W ramach wystąpienia zaprezentowane zostaną wyniki badań porównawczych realizowanych różnymi technikami na analogicznych grupach respondentów oraz propozycje rozwiązań stosowanych przeze mnie obecnie.

14:40 – 15:00

Rozstrzygnięcie konkursu posterowego, podsumowanie i zakończenie konferencji

15:00 – 15:45

Lunch

 

Organizator wydarzenia

Predictive Solutions Sp. z o.o.
[dawniej SPSS Polska]
ul. Retoryka 1
31-108 Kraków

Kontakt

konferencja@ariadna.edu.pl

Kontakt techniczny
508 138 069

Uczelnie
Monika Michalska
508 138 069

Instytuty badawcze
Marzena Ciesielska
508 383 955

Śledź nas w internecie

Ustawienia dostępności
Wysokość linii
Odległość między literami
Wyłącz animacje
Przewodnik czytania
Czytnik
Wyłącz obrazki
Skup się na zawartości
Większy kursor
Skróty klawiszowe