analityczne wyzwania 2018


II Konferencja naukowa

11 grudnia 2018 /// Kraków

ABSTRAKTY 2018

analityczne wyzwania 2018


II Konferencja naukowa

11 grudnia 2018 /// Kraków

ABSTRAKTY 2018

analityczne wyzwania 2018


II Konferencja naukowa

11 grudnia 2018 /// Kraków

ABSTRAKTY 2018

wiedza / doświadczenie / inspiracje

Konferencja Analityczne wyzwania jest wydarzeniem powołanym do życia w 2017 r. z inicjatywy użytkowników oprogramowania z rodziny IBM SPSS i Predictive Solutions, reprezentujących środowisko akademickie.

Celem Konferencji jest integracja ludzi nauki wokół problematyki przetwarzania i analizy danych. Spotkanie to ma tworzyć szeroką platformę współpracy dla pracowników naukowych do wymiany doświadczeń. Patronat nad wydarzeniem objęli prof. dr hab. inż. Krzysztof Boryczko, Dziekan Wydziału Informatyki, Elektroniki i Telekomunikacji AGH oraz Piotr Komornicki, Prezes Predictive Solutions.

Program

wtorek
11 grudnia

 

9:00 – 10:00

Rejestracja uczestników

10:00 – 10:15

Uroczyste otwarcie konferencji

10:15 – 11:35

REFERATY PLENARNE, cz. 1


Celem wystąpienia będzie pokazanie, że sposób ewaluacji naukowców i uniwersytetów wynika z podwójnej roli wskaźników naukometrycznych. Z jednej strony wskaźniki (np. liczba cytowań publikacji) umożliwiają pomiar pożądanych cech pracy naukowców takich jakość prowadzonych badań, a używanie wielu wskaźników zwiększa niepewność ostatecznej decyzji osób oceniających. Z drugiej strony, wskaźniki naukometryczne są traktowane przez twórców systemów ewaluacji nauki jako zachęty, które mają spowodować zmianę praktyk naukowych. W swoim wystąpieniu pokażę, że sposób ewaluowania nauki wynika z relacji pomiędzy tymi, którzy tworzą zasady, tymi którzy je wykorzystują oraz tymi, którzy są oceniani. Pokażę, w jaki sposób wskaźniki wykorzystywane w polskim systemie ewaluacji jednostek naukowych realizują interesy poszczególnych grup interesariuszy. Dodatkowo pokażę, jak używanie zasad oceny uczelni do oceny pracownika wytwarza niepożądane praktyki.

O autorze:
Filozof zajmujący się ewaluacją nauki, kierownik grupy badawczej Scholarly Communication Research Group w Uniwersytecie im. Adama Mickiewicza w Poznaniu. Obecnie kieruje projektem „Punktoza w czasach systemów ewaluacji nauki” (2018–2023) finansowanym ze środków Narodowego Centrum Nauki.


Psychologia - pielęgnując swoją empiryczność oraz cyzelując metody zbierania i analizy danych - wygenerowała wiele modeli opisujących szczegółowe zjawiska psychiczne. Nie szło to jednak w parze z próbami syntezy lub choćby precyzyjnego opisu relacji między tymi modelami, jakby samo przekonanie o możliwościach takiej syntezy odeszło do historii wraz z wielkimi narracjami w innych naukach społecznych i humanistycznych. Podczas wystąpienia zostanie zaprezentowane podejście nazywane przez nasz zespół po kartezjańsku more geomterico. Polega ono na teoretycznym lokowaniu konstruktów i modeli w przestrzeni circumplexu, z precyzyjnie określanymi kątami (obecnie z dokładnością do 0,5 stopnia), a następnie weryfikacji tego ulokowania w badaniach empirycznych. Podejście to pozwoliło już na (1) propozycję daleko idącej syntezy wielu modeli z zakresu psychologii osobowości, temperamentu, emocji, motywacji, dobrostanu i psychopatologii, a także (2) diagnozę luk i propozycję naprawy różnych istniejących modeli stworzonych do opisu szczegółowych zjawisk z tego obszaru. Proponowane podejście jest tworzeniem swego rodzaju Tablicy Mendelejewa w psychologii, w której to tablicy racjonalizm i dedukcja nie są zdominowane przez lawinę niepowiązanych ze sobą przyczynków empirycznych, ale zaprowadzają porządek w empirycznym chaosie oraz rozświetlają ciemność - również przyszłych - wyników empirycznych (a przynajmniej dają taką nadzieję).

O autorze:
Profesor nadzwyczajny w Instytucie Psychologii Uniwersytetu Kardynała Stefana Wyszyńskiego, a w czasie między prowadzeniem badań nad tablicą Mendelejewa w psychologii, dyrektor tegoż Instytutu. W Personalitas - Interdyscyplinarnym Centrum Badań nad Rozwojem i Osobowością, którym kieruje, prowadzi wraz z zespołem badania – ostatnio głównie more geomtetrico. Wspólnie z Włodzimierzem Strusem stworzyli i wprowadzili do literatury światowej Kołowy Model Metacech Osobowości, będący dotychczas głównym osiągnięciem psychologii more geometrico. Autor i współautor około 130 tekstów naukowych, z których około połowa ukazała się w czasopismach z Impact Factor.


Wszystko zaczęło się od powiedzenia „per aspera ad astra” i taki był roboczy tytuł tej prezentacji. Ma ona opowiadać o ciernistej drodze, jaka wiedzie analityka od danych do wizualnej prezentacji wyników. Głównym wątkiem prezentacji jest skupienie się na zagadnieniach związanych doborem formy wizualizacji do danych. Wymaga to z jednej strony interesujących, odpowiednio przygotowanych danych, a z drugiej użycia właściwych, często dość specyficznych form wizualizacji. Tylko dzięki właściwemu mariażowi danych i ich wizualizacji może uzyskać właściwy efekt. Bez tego mariażu, sama informacja ma małe szanse na „dotarcie” do odbiorcy, tak jak i sama atrakcyjna forma wizualizacji „nie przemówi”, jeśli dane będą „milczeć”.

O autorze:
Absolwent socjologii na Uniwersytecie Jagiellońskim. Od początku związany z Predictive Solutions. Zarządza zespołem Konsultingu i Szkoleń. Wykładowca prowadzący szkolenia dotyczące metodologii i technik statystycznych oraz data mining. Na co dzień bierze udział i zarządza projektami konsultingowymi z zakresu rozwiązywania problemów biznesowych z użyciem analiz predykcyjnych i klasycznych technik badania rynku. Specjalizuje się analizach zachowań klientów instytucji finansowych.

11:35 – 11:50

Przerwa na kawę

11:50 – 12:30

REFERATY PLENARNE, cz. 2


W badaniach naukowych Zakładu Biologii Radiacyjnej i Środowiskowej IFJ, PAN w Krakowie, od prawie czterdziestu lat korzystano z programu SPSS do analizy wpływu promieniowania jonizującego (obecnego w sposób nieunikniony w środowisku) na skutki biologiczne obserwowane w komórkach organizmów żywych, pochodzące od chemicznych czynników współdziałających (także synergistycznie w przypadku mutagennych, genotoksycznych). Wieloletnie badania skutków zdrowotnych u człowieka, prowadzono w limfocytach próbek krwi obwodowej, uzyskiwanych dobrowolnie od dawców z grup osób zdrowych; nieeksponowanych oraz z grup osób eksponowanych na różne czynniki genotoksyczne (obecne w środowisku zawodowym lub naturalnym; np. pestycydy, skażenia komunikacyjne, Hg), a także z grup pacjentów z klinik współpracujących w badaniach. Charakterystykę dawców i zmiennych niezależnych uzyskiwano w oparciu o kwestionariusze opracowywane przy współpracy z naukowcami z Instytutu Socjologii UJ. Wpływ uwarunkowań międzyosobniczego zróżnicowania analizowano w oparciu o rezultaty badań laboratoryjnych, uznanych w świecie markerów molekularnych oraz cytogenetycznych, w tym biomarkerów ryzyka zmian nowotworowych. Uzyskiwane rezultaty wykazywały ogromne zróżnicowanie międzyosobnicze we wrażliwości komórkowej, obserwowane we wszystkich grupach badanych. W niniejszym wystąpieniu zostaną przedstawione przykłady wykorzystania programu IBM SPSS Statistics/PS Imago do analizy porównawczej wpływu uwarunkowań osobniczych (takich jak; płeć, predyspozycje rodzinne, polimorfizm oznaczonych genów zaangażowanych w naprawę DNA) na międzyosobnicze zróżnicowanie odpowiedzi radiowrażliwości limfocytów osób eksponowanych na diagnostyczną, niską dawkę promieniowania jonizującego od 131I (potencjalnie środowiskową w przypadku awarii jądrowych), oraz wysoką (terapeutyczną) stosowaną w terapii chorób tarczycy. Analizę porównawczą prowadzono w odniesieniu do rezultatów badań w grupie kontrolnej osób zdrowych. Wybrane do analizy geny z grupy XRCC (X-ray cross complementary group) oraz markery biologiczne są powiązane z różnymi mechanizmami naprawy radiacyjnych uszkodzeń DNA.

O autorce:
Pani Profesor była Kierownikiem Departamentu Biologii Radiacyjnej i Środowiskowej Instytutu Fizyki Molekularnej PAN w Krakowie oraz pracownikiem Katedry Epidemiologii i Medycyny Zapobiegawczej Collegium Medicum Uniwersytetu Jagiellońskiego w Krakowie. Jest autorką lub współautorką ponad 200 artykułów z zakresu biologii radiacyjnej i środowiskowej, epidemiologii, genetyki i ochrony środowiska. Przez dwie kadencje była przewodniczącą Kapituły programu ARIADNA.


Jednymi z ważniejszych problemów badawczych stawianych w badaniach biomedycznych są pytania o to jakie skutki zdrowotne związane są z narażeniem populacji na czynniki szkodliwe, jakie są konsekwencje zastosowania pewnych procedur medycznych, czy też podjęcia działań profilaktycznych. Często, oprócz samego wystąpienia skutku zdrowotnego, ważne jest również to kiedy, w jakim okresie skutki te są widoczne. Do rozwiązania tego typu problemów wykorzystywane są metody analizy przeżycia pozwalające, w porównaniu do innych typów analiz, na ocenę punktów końcowych, w zależności od czasu, który upłynął do ich wystąpienia. Dodatkową zaletą tego typu analiz jest możliwość wykorzystania danych respondentów/pacjentów, którzy nie ukończyli pełnego cyklu obserwacji objętej protokołem badania. W oparciu o dane pochodzące z 30-letniej obserwacji prospektywnej starszych wiekiem mieszkańców Krakowa przedstawiona zostanie analiza umieralności w zależności od wybranych charakterystyk społeczno-demograficznych oraz stanu zdrowia respondentów. W oparciu o możliwości pakietu PS IMAGO/IBM SPSS zilustrowane zostanie wykorzystanie krzywych Kaplana-Meiera do oceny krzywych przeżycia oraz oszacowania czasu do wystąpienia zgonu w badanej populacji. Dodatkowo, zaprezentowana zostanie możliwość wykorzystania modelu proporcjonalnego hazardu Coxa w poszukiwaniu czynników mogących mieć wpływ na ryzyko zgonu w grupie osób starszych.

O autorce:
Adiunkt w Katedrze Epidemiologii i Medycyny Zapobiegawczej, Wydziału Lekarskiego Uniwersytetu Jagiellońskiego – Collegium Medicum w Krakowie. Kierownik Zakładu Epidemiologii. Ukończyła studia matematyczne w Uniwersytecie Jagiellońskim. W roku 2005 uzyskała stopień dr, a w roku 2014 dr hab. na Wydziale Lekarskim UJCM. Główne obszary zainteresowań to zastosowanie biostatystyki w badaniach naukowych oraz metodologia badań prowadzonych w obszarze szeroko pojętej nauki o zdrowiu. W swojej pracy zajmuje się planowaniem i prowadzeniem badań naukowych w zakresie epidemiologii środowiskowej – główne tematy to wpływ zanieczyszczenia powietrza oraz żywienia, na zdrowie człowieka na różnych etapach życia. Zajmuje się również praktycznym zastosowaniem zaawansowanych technik statystycznych w analizie uzyskanych danych naukowych.

12:30 – 13:00

SESJA POSTEROWA
Przerwa na kawę


Osady jeziorne są bardzo dobrym archiwum antropogenicznego zanieczyszczenia tych zbiorników różnymi substancjami, w tym metalami. Jeziora, jako bardzo cenne obiekty przyrodnicze, stanowią przedmiot zainteresowania naukowców z wielu dziedzin. Jednym z nich jest jezioro Wigry, na terenie którego przez kilkanaście lat prowadzono interdyscyplinarne badania naukowe pod kierownictwem prof. Jacka Rutkowskiego. W ramach tych badań pobrano ponad 1000 próbek osadów jeziora, z których prawie 500 zostało przebadanych pod kątem zawartości metali ciężkich: Cd, Cr, Cu, Fe, Mn, Pb i Zn. Uzyskane wyniki koncentracji metali wykorzystano do sporządzenia geochemicznych map rozmieszczenia poszczególnych pierwiastków w osadach jeziora. Tradycyjne metody interpolacyjne okazały się w tym wypadku mało przydatne, ze względu na geomorfologiczną wyjątkowość badanego jeziora, które ma bardzo urozmaiconą linię brzegową i zróżnicowaną głębokość. Ponadto dno Wigier wyściela kilka typów osadów. Zważywszy na powyższe uwarunkowania, do sporządzenia geochemicznych map jeziora zastosowano analizę wieloczynnikową, będącą jedną z metod GIS. Analiza taka pozwala modelować przestrzenne rozmieszczenie metali w osadach, z uwzględnieniem czynników, które mogą nań wpływać, jak np. głębokość jeziora, odległość od brzegów, odległość od dopływów itp. Wszystkie dane oraz mapy przygotowano w postaci cyfrowej, gdzie każdemu pikselowi mapy odpowiada liczbowa wartość danego czynnika, np. głębokości. Zestawiając wyekstrahowane z map wartości z koncentracjami metali w danym punkcie, można analitycznie powiązać te dwa parametry równaniem regresji liniowej. Istotna jest także siła tej zależności, której miarą jest współczynnik korelacji. Kolejny krok to przygotowanie map modeli cząstkowych, przedstawiających teoretyczne rozmieszczenie metalu wyliczone na podstawie odpowiedniego równania regresji liniowej. Ostatni krok to złożenie modeli cząstkowych w ostateczną mapę, gdzie każdy piksel wyliczany jest jako suma wartości tego piksela z poszczególnych map cząstkowych pomnożonych przez przypisane im wagi, zależne od siły korelacji. W przypadku wszystkich badanych metali uzyskano zadowalające rezultaty modelowania. Zanieczyszczenie Wigier ma charakter zarówno naturalny, jak i antropogeniczny, ale ogólnie jezioro klasyfikowane jest jako niezanieczyszczone lub zanieczyszczone w niewielkim stopniu.


Wśród koncepcji związanych z wyceną aktywów kapitałowych do najbardziej popularnych należy Teoria Arbitrażu Cenowego (APT). Ze względu na stosunkowo otwartą formułę jej modele mogą występować w wielu postaciach. Podstawową kwestią związaną z określeniem oraz wykorzystaniem modelu APT jest dobór czynników mających wpływ na wycenę poszczególnych instrumentów finansowych. W niniejszym artykule zaprezentowano nowe podejście estymacji tych czynników oparte na metodach ślepej identyfikacji, w szczególności rozszerzonym algorytmie AMUSE. Algorytm ten może eksplorować statystyki zarówno drugiego rzędu jak również wyższych rzędów, co pozwala wyodrębnić z szeregów finansowych kluczowe dla modelu APT czynniki. Podejście to jest szczególnie adekwatne dla danych niegaussowskich. Przedstawiona koncepcja teoretyczna zostanie potwierdzona praktycznym eksperymentem na danych finansowych.


W aktualnych badaniach w zakresie psychologii zanotowano wzrost zainteresowania heroizmem, współistniejący z deficytem narzędzi do jego pomiaru. Wyniki przeprowadzonych analiz stanowią wstęp do badań nad trafnie zoperacjonalizowanym heroizmem i jego związkami ze zmiennymi z obszaru różnic indywidualnych. Powstałe narzędzie stanowi część szerszej teorii, w której heroizm definiowany jest jako skłonność do różnego typu zachowań dostępnych w życiu większości ludzi. W pierwszej fazie stosując procedurę sędziów kompetentnych (N=30) wygenerowano listę 363 zachowań heroicznych, które finalnie zredukowano do 49 najbardziej reprezentatywnych pozycji, odnoszących się do trzech kategorii heroizmu: bohaterskiego, światopoglądowego i finansowego. W drugiej fazie przeprowadzono badanie pilotażowe (N=200), w którym przeanalizowano moc dyskryminacyjną pozycji testowych. Wykonano także analizę składowych głównych (principal component analysis, PCA), na podstawie wyników której skrócono narzędzie oraz wyodrębniono sześć składowych heroizmu: heroizm bohaterski gorący i chłodny, światopoglądowy gorący i chłodny, interwencyjny i finansowy, tłumaczących 49,68% wariancji. W trzeciej fazie badań (N=523) sprawdzono dopasowanie wyodrębnionego modelu za pomocą konfirmacyjnej analizy czynnikowej (confirmatory factor analysis, CFA). Na etapie tym porównano trzy konkurencyjne modele: (1) sześcioczynnikowy, (2) hierarchiczny z jednym czynnikiem głównym i sześcioma czynnikami pierwszego rzędu oraz (3) podwójnego czynnika (bifactor), z czynnikiem głównym i sześcioma czynnikami specyficznymi. Analiza wskaźników dopasowania wskazała na najlepsze dopasowanie modelu sześcioczynnikowego (Χ2[419] =499,050, p<0,01; RMSEA=0,019 [0,011-0,025], CFI=0,991, GFI=0,965). Stworzone narzędzie charakteryzowało się zadawalającym poziomem zgodności wewnętrznej, a poszczególne komponenty heroizmu korelowały umiarkowanie i wysoko z innymi miarami heroizmu. Przeprowadzone analizy pokazały, iż możliwe jest stworzenie narzędzia pomiarowego będącego częścią większej teorii i odnoszącego się do pomiaru zmiennej trudnej do zoperacjonalizowania na gruncie psychologii. Wykorzystanie narzędzia możliwe jest w przyszłości nie tylko w obszarze badań naukowych, ale także praktyki psychologicznej, rekrutacji, selekcji i doradztwa zawodowego.


Niepewność pomiaru jest jednym z najważniejszych parametrów szacowanych w badaniach środowiskowych, często jednak pomijanym i nie uwzględnianym w procesie decyzyjnym. Pozwala uzyskać informacje na temat szerokości przedziału, w obrębie którego, z określonym prawdopodobieństwem, znajduje się wielkość mierzona. Do szacowania niepewności wykorzystuje się metody teoretyczne i/lub empiryczne, a postępowanie obliczeniowe uzależnione jest od zastosowanego schematu jej oceny. W laboratoriach powszechnie stosowane są metody empiryczne, oparte na wynikach analiz próbek wzorcowych (np. CRM) i środowiskowych z uwzględnieniem próbek kontrolnych: ślepych, znaczonych i dublowanych. Do szacowania niepewności metrologicznej (oceny precyzji) wykorzystuje się informacje o wartości wariancji dla analizowanego parametru. W przypadku schematu rozszerzonego analizy uzyskujemy informację o wariancji geochemicznej (naturalnej zmienności) parametru fizykochemicznego, a także wariancję opróbowania i pomiaru (łącznie stanowiących wariancję techniczną). Schemat ten uwzględnia analizę próbek normalnych i dublowanych (pobranych jako duplikat próbek normalnych) i ich co najmniej dwukrotną analizę. Można również wykonać powtórzoną analizę dla próbki normalnej i pojedynczy pomiar dla próbki dublowanej, obniżając tym samym koszty procesu. Schemat uproszczony zakłada pojedynczą analizę próbki normalnej i dublowanej, i nie pozwala wydzielić składowych wariancji technicznej. W niniejszej pracy oszacowano niepewność dla dwóch parametrów chemicznych oznaczonych techniką instrumentalną oraz metodą klasyczną (żelaza oraz chlorków), a także dla parametru fizycznego – przewodności elektrycznej właściwej, w próbkach wód podziemnych ze Zdroju Królewskiego w Krakowie. Do wyznaczenia wartości niepewności wykorzystano program PS IMAGO 5 oparty na silniku IBM SPSS Statistics. Uzyskane wyniki wykazały różnice w udziałach każdej z trzech obliczonych składowych niepewności. W przypadku jonów chlorkowych obserwuje się większą niepewność związaną z pomiarem analitycznym, a w mniejszym stopniu z opróbowaniem wód z ujęcia. Rozpatrując stężenia jonów żelaza, główne źródło niepewności związane jest z próbek etapem poboru próbek, a dla przewodności elektrycznej właściwej uzyskane wartości zależą niemal wyłącznie od naturalnej zmienności parametrów fizykochemicznych wody, podczas gdy wielkość niepewności związanej z pomiarem nie przekracza 1%.


Niejasna tożsamość dyscypliny nauki o mediach ma obecnie coraz bardziej rozmyty status. Z jednej strony, nieodłącznie związana jest z komunikowaniem społecznym, a co za tym idzie – również masowym, przez co łączy się z dyskursami politycznym i socjologicznym. Współczesne medioznawstwo przybrało jednak także po części fascynację nowoczesnymi rozwiązaniami technologicznymi oraz zastosowaniem badań behawioralnych, częściej kojarzonych z psychologią, a nawet neurochirurgią. Owo przesunięcie zrodziło nowe wyzwania analityczne w postaci potrzeby zmian w zakresie metod badania i stosowanej terminologii, które, zdaniem Walerego Pisarka, są podstawowymi gwarantami intersubiektywnej sprawdzalności. W referacie pragniemy przedstawić zarówno genezę i złożoność tożsamości medioznawstwa, jak i obecnie stosowane metody badań: od analizy zawartości przez różne formy badań ankietowych i etnograficznych, aż po badania z wykorzystaniem okulografów, systemów EEG i ECG, czy rozwiązań służących do monitorowania tzw. ekspresji mimicznej. Nowe technologie wykorzystywane w badaniach medioznawczych, pozwalają ponadto na dużą interdyscyplinarność, a wykorzystywane techniki i metody mogą mieć zastosowanie również w innych dziedzinach naukowych. Co więcej, brak jednej wielkiej teorii i metodologii odnośnie badań nad komunikowaniem masowym, powinno być traktowane jako siła tej dyscypliny, ponieważ umożliwia badaczowi wyjście poza sztywne ramy i korzystanie z rozwiązań wypracowanych przez wiele innych dziedzin. Jeśliby takie ramy wprowadzić byłyby one przyczynkiem do prawdopodobnie zubożenia dyscypliny i ograniczenia jej potencjału poznawczego. Prelegentki chciałyby zwrócić w swoim wystąpieniu także uwagę na dwa stanowiska w badaniu komunikacji masowych: 1. Empiryczne – „oparte na założeniu i istnieniu w mediach odgraniczonej, empirycznie badalnej i intersubiektywnie opisywanej rzeczywistości, możliwej do analizy przy pomocy ściśle określonych metod i procedur badawczych”. 2. Konstruktywistyczne – „skupione na procesach i sposobach w jakie nadawcy i odbiorcy konstruują świat, kreując znaczenie, co możliwe jest do opisu przy pomocy rozmaitych konceptualizacji.”


Woda podziemna z ujęcia Wierchomlanka bardzo często spożywana jest przez turystów oraz przez mieszkańców okolicznych miejscowości. Nie została ona dotychczas objęta monitoringiem jakości wód. Wykonane zostały badania właściwości fizyczno-chemicznych tej wody, mające na celu określenie jej przydatności do spożycia. Uzyskane wyniki badań zestawiono z wartościami normatywnymi zawartymi w Rozporządzenia Ministra Zdrowia w sprawie jakości wody przeznaczonej do spożycia przez ludzi (Dz.U. 2017 poz. 2294). Stwierdzono przekroczenie stężeń żelaza, manganu i selenu. Woda została uznana za warunkowo zdatną do spożycia. Ponadto stwierdzono, że ze względu na wysoką zawartość makroelementów (m.in. wapnia i magnezu) może ona posiadać właściwości korzystne dla zdrowia, podobnie jak inne wody mineralne występujące w rejonie Beskidu Sądeckiego, charakteryzujące się zbliżonym do niej składem chemicznym. Wyniki badań opracowano i zobrazowano za pomocą różnych metod statystycznych (w tym Data Mining).

Badania zostały sfinansowane z badań statutowych nr 11.11.140.017


Badania nad promowaniem produktów za pomocą reklam są ciągle w nauce aktualne i nie zanosi się na to, że na aktualności stracą. Naukowcy i praktycy są ciągle zainteresowani przyczynami które wywołują efektywność marketingową prezentowanych w reklamach produktów i usług. W prezentowanym badaniu zaobserwowano, że nadanie produktowi wyraźnych cech osobowości i jego antropomorfizacja, są silnymi determinantami efektu zbieżności osobowości produktu z Ja sprawnym, asertywnym, moralnym i ciepłym, a także intencją jego zakupu, postawą wobec niego, reklamy i firmy, a także chęcią zapłaty za produkt. W toku przeprowadzonego eksperymentu i modelowania strukturalnego PLS uzyskano obserwacje, które wskazują, że reklama produktu którego osobowość jest wysoce sprawno-asertywna i nisko moralno-ciepła (reklama sprawcza) jest efektywna marketingowo dla osób, które są: nisko sprawne, wysoce asertywne, wysoce moralne. Osoby te wyrażają jednocześnie chęć mniejszej zapłaty za taki produkt. Typ reklamy sprawczej wywoływał to, że zbieżność osobowości produktu z Ja nie pośredniczyła między cechami osobowości, a pomiarami efektywności. Wiązała się natomiast bezpośrednio z większą chęcią zapłaty za produkt. Natomiast reklama produktu którego osobowość jest wysoce sprawno-moralno-ciepła i nisko asertywna (reklama sprawno-wspólnotowa) jest efektywna marketingowo dla osób, które są: wysoce sprawne (bo dostrzegają rozbieżność osobowości produktu z Ja i wyrażają większą chęć zapłaty), wysoce moralne (bo dostrzegają rozbieżność osobowości produktu z Ja), wysoce asertywne i ciepłe (ze względu na zbieżność osobowości z Ja i wyrażają mniejszą chęć zapłaty). Typ reklamy sprawno-wspólnotowej wywoływał to, że zbieżność osobowości produktu z Ja wiązała się z większą efektywnością reklamy, ale nie z chęcią zapłaty.


Badania modelowe filtracji przez nasypy dają możliwość określenia przebiegu krzywych przepływu w korpusie modelu a pośrednio przez pomiar wydatku filtracyjnego i parametrów geometrycznych obliczenie współczynnika filtracji. W przypadku nasypów z materiału jednorodnego określenie przebiegu filtracji jest znacznie prostsze w porównaniu do nasypów, w których zabudowano geosyntetyki. Dodatkowe wkładki anizotropują ośrodek, przez który filtruje woda, co może zmieniać warunki pracy całego nasypu. Duża liczba rejestrowanych danych wymaga odpowiedniej aparatury a później analizy, najczęściej z wykorzystaniem narzędzi informatycznych. Referat przedstawia badania modelowe przeprowadzone na nasypie hydrotechnicznym. Uformowany z gruntu mineralnego model piętrzący wodę został opomiarowany zestawem czujników piezometrycznych. Zakres i różnorodność zgromadzonych cyfrowo danych pozwoliła na przeprowadzenie testów analitycznych z wykorzystaniem narzędzi statystycznych w celu oceny uwarunkowań poszczególnych czynników, oraz statystycznej oceny istotności.


Wykonywanie zawodu rolnika jest związane z dużym ryzykiem, zarówno biorąc pod uwagę działalność produkcyjną i uzyskiwane z niej przychody, jak również niebezpieczeństwo wystąpienia wypadku lub choroby. Dlatego też poza obowiązkowym ubezpieczeniem społecznym, rolnicy mogą skorzystać z szerokiej oferty dodatkowych ubezpieczeń gospodarczych, do których należą ubezpieczenia osobowe, tzw.: życiowe, life, działu I. Ubezpieczenia osobowe dotyczą zdarzeń odnoszących się do dóbr osobistych ubezpieczonych, przede wszystkim życia i zdrowia, ale również sytuacji rodzinnej. W polskiej literaturze przedmiotu kwestia zainteresowania rolników ubezpieczeniami na życie nie została jeszcze dokładnie omówiona. Niniejsza praca ma stanowić próbę rozpoznania problematyki dotyczącej wykorzystania możliwości zapewnienia bezpieczeństwa finansowego sobie i swoim bliskim przez rolników w oparciu o istniejące źródła danych i badania własne. Celem opracowania jest przedstawienie wyników badań dotyczących poziomu korzystania przez rolników z ubezpieczeń na życie i identyfikacja czynników ekonomicznych i pozaekonomicznych, które mogłyby spowodować większe zainteresowanie tymi produktami wskazanego segmentu klientów. Badanie metodą ankietową wykonano, wykorzystując platformę do realizacji badań ankietowych, wspierającą proces gromadzenia danych, ich analizy, a także raportowanie — PS QUAESTIO PRO zawierającą IBM SPSS Statistics 24. Próba badawcza wynosiła 153 rolników w wieku 25-60 lat. W pracy wykorzystano miary statystyki opisowej, analizę korelacji i miary współzależności cech oparte na statystyce Chi-kwadrat. Stwierdzono, że badani rolnicy w bardzo małym stopniu wykorzystują produkty należące do działu I ubezpieczeń – „Ubezpieczenia na życie” (31% respondentów). Według badanych, czynnikami, które mogłyby wpłynąć na większe zainteresowanie ubezpieczeniami life, były niższa cena (68%) i lepsza oferta (36%). Jednym z czynników oddziaływujących negatywnie na zainteresowanie produktami ubezpieczeniowymi, które mogłyby zapewnić dodatkowe środki finansowe po przejściu rolników na emeryturę okazała się możliwość przekazania gospodarstwa następcy w zamian za dożywotnie utrzymanie.


Celem artykułu jest wycena opcji europejskich za pomocą modelu S. L. Hestona. Ze względu na to, że oryginalne podejście jest nieefektywne, istnieje konieczność poszukiwania alternatywnych koncepcji zapewniających możliwość bardziej „sprawnego” określenia wartości teoretycznych będących przedmiotem zainteresowania kontraktów. W ramach podejmowanej problematyki analizie poddawane są z jednej strony alternatywne sposoby wyznaczania transformaty Fouriera, której zastosowanie jest konieczne do wyznaczenia cen modelowych analizowanych derywatów, z drugiej zaś sprawdzeniu poddawane są różne schematy numeryczne wyznaczania samej transformaty Fouriera. Na podstawie otrzymanych wyników można sformułować dwa wnioski. Pierwszy z nich stanowi, iż istnieją bardziej efektywne sposoby obliczania transformaty Fouriera, drugi natomiast odnosi się do istotnego wpływu wykorzystywanych schematów numerycznych m.in. na szybkość generowania wyników końcowych.


Celem artykułu jest sprawdzenie, który z modeli stochastycznej zmienności ma największe zastosowanie w procesie wyceny opcji europejskich. W ramach podejmowanej problematyki analizie poddawane są modele, w przypadku których zakłada się stochastyczną zmienność cen aktywów, na które opiewają analizowane instrumenty pochodne. Kwestia, na którą zwracana jest szczególna uwaga, odnosi się do wpływu skoków kursowych na otrzymywane wyniki końcowe. Na podstawie rezultatów przeprowadzonych badań można stwierdzić, iż wartość modelowa opcji jest bardzo wrażliwa na parametry, zaś na ostateczny wybór najlepszego podejścia do określania wartości teoretycznych rozpatrywanych kontraktów duży wpływ ma dobór okresu analizy.

13:00 – 14:45

RÓWNOLEGŁE SESJE NAUKOWE

Informacja przestrzenna, wielowymiarowa i o zadowalającej jakości w szczegółowo zdefiniowanych domenach jest obiektem pożądania wielu instytucji publicznych i prywatnych. Przeprowadzane badania częściowe często jednak ten czynnik pomijają. Wynikać może to z wylosowania próby o zbyt małej liczebności, przez co estymacja dla małych obszarów nie jest możliwa lub na skutek ograniczeń związanych np. z odmowami udziału w badaniu. Pewne remedium stanowić może połączenie informacji z wielu źródeł, co skutkować powinno poprawą jakości i precyzji szacunków dokonywanych na podstawie badań częściowych. W tym celu wykorzystać można podejście mikrosymulacyjne, wprowadzone przez Orcutta [1957], które jest szeroko wykorzystywane w badaniach społecznych celem generowania tzw. syntetycznych populacji, stanowiących podstawę do budowy wielu modeli mikrosymulacyjnych [Tanton 2014] oraz estymacji dla małych obszarów [Anderson 2007; Tanton, Williamson, Harding 2014]. W referacie zaprezentowana zostanie metoda GREGWT (ang. Generalized Regression and Weighting), należąca do metod kalibracyjnych i szeroko wykorzystywana w podejściu mikrosymulacyjnym. Za jej pomocą możliwe będzie dostosowanie brzegowych i łącznych rozkładów cech do znanych rozkładów dla małych domen pochodzących ze źródeł pełnych (np. spisu). W wystąpieniu zaprezentowane zostanie praktyczne wykorzystanie tej metody na przykładzie danych pochodzących z NSP 2011 oraz Badania Aktywności Ekonomicznej Ludności z tegoż roku.


W literaturze dotyczącej problematyki wartości od czasu publikacji pierwszego kwestionariusza do ich pomiaru (Allport i Vernon, 1931), toczy się dyskusja nad wyborem najlepszego rozwiązania metodologiczno-statystycznego, czyli między rangowaniem (ang. ranking) lub ocenianiem (ang. rating). Aktualnie, za sprawą badań Schwartza (1992, 1994; Schwartz i in., 2001, 2012) prowadzonych na bardzo szeroką skalę, szala przesunęła się na korzyść oceniania. Jednak w ostatnich latach (Lee, i in., 2008, 2017) pojawiła się nowa propozycja pomiaru wartości, będąca rozszerzeniem znanej, ale czasochłonnej metody porównań parami (David, 1988; Thurstone, 1927). Lee, Sountar i Louviere (2008) zastosowali statystyczną metodę zrównoważonych bloków niekompletnych (ang. Balanced Incomplete Block Design, BIBD) oraz metodę skalowania „najlepszy-najgorszy” (ang. Best-Worst Scaling, BWS) do pomiaru wartości z katalogu Schwartza (Lee i in., 2008, 2017). W kontekście rozwoju nowych metod do pomiaru wartości oraz ich hierarchii, pojawia się pytanie o to, czy i jak omówione sposoby pomiaru (rangowanie, ocenianie oraz metoda najlepszy-najgorszy) wpływają na uzyskiwane w badaniach wyniki. Ponieważ w ramach żadnego katalogu wartości nie opracowano równoległych narzędzi wykorzystujących przytoczone sposoby pomiaru, to do przeprowadzenia takich porównań konieczne było zaplanowanie złożonych symulacji. Wymagały one przyjęcia pewnych założeń, dotyczących między innymi rozkładu hierarchii w populacji, gdyż w literaturze przedmiotu brakuje informacji w tym zakresie. W celu rozpatrzenia różnych przypadków, przyjęto dziewięć struktur populacji różniących się ze względu na procentowy udział hierarchii zgodnych, neutralnych i niezgodnych z założoną hierarchią wejściową. Dodatkowo w obrębie każdej populacji wygenerowano dane specyficzne dla pomiaru realizowanego za pomocą rangowania, metody najlepszy-najgorszy i oceniania przy zachowaniu tego samego uporządkowania k obiektów (k1 = 6, k2 = 10, k3 = 18, k4 = 19). Następnie z tak przygotowanych 1 000 000 populacji losowano po 1000 prób n elementowych (n1 = 30, n2 = 100, n3 = 300, n4 = 500). W referacie przedstawione zostaną uzyskane wyniki oraz wynikające z nich wnioski.


Na przestrzeni ostatnich 30 lat, od chwili swego powstania, Grey Systems Theory (GST) znalazła szereg zastosowań. Metody GST stosuje się w rozwiązywaniu szerokiej gamy problemów z obszaru nauk technicznych, społecznych, czy też ekonomicznych. Szczególne zastosowanie GST znajduje w przypadku modelowania systemów obarczonych wysokim stopniem niepewności. Niepewność ta wiąże się z niekompletnością informacji o systemie, nielicznością informacji, czy ryzykiem występowania błędnych informacji. Tego typu systemy są szczególnie przedmiotem badań i zainteresowania praktyków i naukowców w obszarze zarzadzania i ekonomii. W związku z tym w referacie położony zostanie szczególny nacisk na aspekty metodyczne i epistemologiczne w odniesieniu do tych dziedzin nauki i praktyki. Pierwszym celem referatu jest pokazanie istoty pojęcia systemu szarego i szarej informacji w kontekście innych koncepcji analitycznych, takich jak logika rozmyta, teoria zbiorów przybliżonych, czy probabilistyka. Drugim celem jest pokazanie aktualnej klasyfikacji istniejącego instrumentarium metodycznego GST. Trzecim, finalnym celem referatu jest wskazanie dalszych kierunków badań w zakresie GST, ze szczególnym uwzględnieniem wyboru konkretnych algorytmów analitycznych w celu ich komercyjnej implementacji w komputerowym środowisku analitycznym takim jak IBM SPSS Statistics/PS IMAGO.


Celem referatu będzie przedstawienie wyprowadzonych na podstawie zdobytych doświadczeń badawczych postulatów dotyczących projektowania, realizacji i analizy socjologicznych studiów miejskich związanych z tematyką jakości życia. Prezentowane postulaty odnoszą się do konceptualizacji i operacjonalizacji problematyki badawczej, opracowania i standaryzacji narzędzia badawczego, zapewnienia zasobów do prowadzenia badań w sposób cykliczny, zapewnienia reprezentatywnych metod doboru próby, a także sposobów analizy zebranego materiału pod kątem cykliczności badań oraz ich standaryzacji. Przedstawione rozważania odwoływać będą się do panelowych badań zrealizowanych w Rzeszowie w ramach projektu „Rzeszowska Diagnoza Społeczna”.


W badaniach podjęty został temat sytuacji doświadczenia krzywdy, w której przebaczenie, rozumiane jako ponowne nawiązanie bliskiej relacji ze sprawcą krzywdy, może stanowić duże zagrożenie dla dobrostanu osoby skrzywdzonej a nawet dla jej godności. Jak pokazały wyniki przeprowadzonych badań, pozostawanie w relacji lub motywacja do ponownego nawiązania bliskiej relacji ze sprawcą, który skrzywdził celowo i nie zamierza wyrazić skruchy, może wiązać się z negatywną postawą wobec przyszłości, słabo sprecyzowaną wizją własnej przyszłości oraz słabą koncentracją na przyjemnościach „tu i teraz”. Może być również przejawem braku poczucia bezpieczeństwa i zamykania się na ewentualne zmiany, które to paradoksalnie mogłyby przywrócić osobie skrzywdzonej, wyparte bądź stłumione przez lęk o przyszłość, marzenia o lepszym życiu.


Prognozowanie, jak wskazuje nazwa tej dziedziny nauki, służy do naukowego przewidywania, w jaki sposób różne procesy, zachowania czy zdarzenia mogą zachodzić w przyszłości. Metod prognozowania jest wiele, poczynając od analizy szeregów czasowych, poprzez metody matematyczne (prognozowanie ilościowe), aż po prognozowanie heurystyczne (jakościowe) z wykorzystaniem wiedzy ekspertów. Aby prognozowanie było obarczone jak najmniejszym błędem konieczne jest posiadanie możliwie dużej ilości danych na zadany temat, czy to w postaci badań i raportów, czy to w postaci wiedzy ekspertów. W ramach pracy zawodowej poza uczelnią zajmuje się m.in. przygotowaniem prognoz w oparciu o dane zarówno dostarczone przez klienta, jak i zebrane samodzielnie. Dwukrotnie w swojej karierze stanąłem jednak przed wyzwaniem, w którym nie miałem kompletnych danych do prognozowania. Na podstawie tychże dwóch case studies chciałbym przedstawić przyjęte podczas analizy rozwiązania i poddać pod dyskusję czy przyjęta ścieżka była poprawna.


Współcześnie edukacja jest jednym z głównych czynników determinujących trwały wzrost gospodarczy. Liczne badania empiryczne, w tym modele wzrostu gospodarczego opracowane przez Barro, Mankiw oraz Sala-i-Martin potwierdzają, że postęp technologiczny i innowacje są rezultatem racjonalnego inwestowania w edukację. Edukacja postrzegana jest również jako element kluczowy, decydujący o powodzeniu prawdziwego integrowania się Europy. Polityka Unii Europejskiej skoncentrowana jest na wyrównaniu szans edukacyjnych miedzy poszczególnymi krajami. Wyzwaniem każdego z państw jest zapewnienie obywatelom edukacji na odpowiednim poziomie, dostosowanym do potrzeb rynku pracy. Unia Europejska dostrzega wagę i znaczenie systemu edukacji, co znajduje odzwierciedlenie w dokumentach strategicznych Wspólnoty. Głównym celem artykułu jest porównanie systemów edukacji w krajach członkowskich UE w roku 2016 przy zastosowaniu wybranych metod wielowymiarowej analizy statystycznej. Celem szczegółowym artykułu jest pomiar i ocena zależności pomiędzy nakładami na edukację a wynikami osiąganymi przez uczniów w badaniu PISA. Postępowanie badawcze bazuje na danych statystyki publicznej pochodzących z Eurostatu oraz OECD. W szczególności ocenie zostały poddane wyniki osiągnięte przez 15-latków w badaniu PISA 2015 roku. Efekty uczniów przeanalizowano w podziale na umiejętności w obszarach: nauki przyrodnicze, czytanie i matematyka. Przyjęty podział wynika z metodologii badania PISA. W części empirycznej artykułu przedstawiono porównanie systemów edukacji dla tych krajach UE, które są jednocześnie członkami OECD. Przeprowadzona analiza potwierdziła występowanie silnej zależności dodatniej pomiędzy wynikami uczniów mierzonymi w ramach badania PISA a nakładami ponoszonymi na edukację w przeliczeniu na jednego ucznia w szkole podstawowej.


W ostatnich latach wzrosło znaczenie badań empirycznych w politologii, a jedną z powszechnie stosowanych metod jest analiza zależności między zmiennymi z wykorzystaniem modeli regresyjnych. Analiza ta jest z powodzeniem wykorzystywana m.in. w badaniach nad determinantami zachowań wyborczych. Celem mojego wystąpienia będzie przedstawienie zastosowania regresji liniowej i logistycznej w analizie danych zastanych – danych wyborczych (z Państwowej Komisji Wyborczej). Szczegółowym przedmiotem analizy jest wpływ zmiennych takich jak lokalność kandydata, miejsce na liście wyborczej, status inkumbenta oraz kontrolnie wiek, płeć i przynależność do partii politycznej na wynik wyborczy kandydata (liczbę zdobytych głosów oraz zdobycie lub nie mandatu) w warunkach proporcjonalnego systemu wyborczego z listami półotwartymi do Sejmu RP. Szczególna uwaga zostanie zwrócona na ograniczenia modeli oraz błędy po stronie badacza, które mogą doprowadzić do błędnych wyników lub zbytniego uproszczenia wniosków nt. zależności pomiędzy badanymi zmiennymi.


Trwający od dekad w Polsce i na świecie spadek wartości wskaźników realizacji badań sondażowych powoduje obniżenie jakości dokonywanego za ich pomocą pomiaru. Jedną z koncepcji, której wyjściowym celem była minimalizacja problemów wynikających z braków odpowiedzi są sondaże w schemacie mieszania technik. Jednak najbardziej intuicyjny schemat realizacji sondażu mixed-mode, a więc taki, w którym respondent ma możliwość samodzielnego wyboru techniki, w której będzie uczestniczył ma zasadniczą wadę – dotychczasowe metaanalizy metodologiczne sugerują, że takie podejście skutkuje zmniejszeniem odsetka zrealizowanych wywiadów w stosunku do badań narzucających technikę. Potencjalnym rozwiązaniem tego problemu wydaje się próba wcześniejszego ustalenia prawdopodobieństw pozytywnych odpowiedzi respondentów na prośby o udział w sondażu za pomocą różnych technik. Punktem wyjścia wystąpienia chciałbym uczynić aktualny stan badań nad skutkami, jakie preferencje respondentów wywierają na wskaźnikach realizacji i na jakości pomiaru w badaniach sondażowych, a następnie przedstawić własne modele regresji logistycznej oparte na hipotezie istnienia względnie stałej preferencji techniki. Źródłami danych do ich opracowania są eksperyment sondażowy mixed-mode przeprowadzony przez prof. Pawła Sztabińskiego w ramach 7 rundy ESS, oraz dane z 8 rundy ESS w Polsce. Pierwszy zbiór danych umożliwia ustalenie predyktorów preferencji behawioralnych – a więc opartych na rzeczywistych wyborach techniki przez respondentów. Drugi zawiera deklaracje badanych odnośnie preferowanej techniki udziału w sondażu w przyszłości. Modele na nich oparte służyć mają dwóm celom – po pierwsze ustaleniu prawdopodobieństw preferowania danej techniki dla kategorii respondentów wyróżnionych na podstawie danych dostępnych w operacie losowania do sondażu, a po drugie analizie różnic pomiędzy danymi pochodzącymi z obserwacji zachowań i z deklaracji – a tym samym odpowiedzi na pytanie czy i dlaczego respondenci (nie) uświadamiają sobie, którą technikę preferują i czy w związku z tym należy ich o to pytać.


Podstawowym narzędziem pozwalającym dostarczyć informacji o wyniku finansowym jest rachunkowość [Ronek, 2013, s. 134]. Przy wykorzystaniu odpowiednich procedur przetwarzania danych prezentuje ona ilościowy oraz wartościowy obraz działalności jednostki, którego wyrazem jest między innymi osiągnięty zysk lub strata netto, wykorzystywane przez wielu użytkowników sprawozdań finansowych w procesach decyzyjnych [Poniatowska, 2013, s. 113]. To za jej pomocą interesariusze są w stanie pozyskiwać informacje ekonomiczne o danym podmiocie bez względu na specyfikę jego działalności, wielkość czy strukturę organizacyjną [Messner, 2010, s. 10]. Dane finansowe pochodzące z systemu rachunkowości stanowią czynnik ograniczający ryzyko związane z podejmowaniem decyzji inwestycyjnych. Dzięki nim inwestorzy mogą wyselekcjonować podmioty charakteryzujące się dobrą kondycją finansową, w których ulokowanie kapitału może wiązać się w przyszłości z osiągnięciem ponadprzeciętnych zysków. Istotnym pośrednikiem w transakcjach zawieranych między kapitałodawcami (inwestorami) a kapitałobiorcami (przedsiębiorstwami) jest rynek kapitałowy [Davies, Boczko, Chen, 2008, s. 283]. Umożliwia on wycenę akcji notowanych na nim spółek. Te z kolei, z wynikających z prawa obowiązków informacyjnych, jak i z dobrych praktyk emitentów giełdowych, dzielą się w raportach okresowych wypracowanymi z ich działalności wielkościami ekonomicznymi [Mazurczak-Mąka, 2013, ss. 223-224]. Jedną z najistotniejszych z nich jest informacja dotycząca wyniku finansowego netto. Przekazanie publicznej wiadomości traktującej o wyniku z działalności stanowi czynnik zmienności wyceny rynkowej akcji spółek publicznych, o czym pisali między innymi R. Ball i P. Brown [1968], W. Beaver, R. Clarke i W. Wright [1979] czy R. Kormendi wraz z R. Lipe [1987]. Celem niniejszego wystąpienia jest zbadanie występowania tez wysuniętych przez wcześniejszych badaczy w warunkach warszawskiej giełdy papierów wartościowych (GPW). Autor ma zamiar zweryfikować istnienie zależności między sygnalizowanym w raportach kwartalnych wynikiem netto, a krótkoterminową reakcją rynku na jego ogłoszenie. Co więcej, raportowany w sprawozdaniu okresowym wynik netto zostanie odniesiony do publikowanego przez Polską Agencję Prasową (PAP) konsensusu rynkowego jego wartości, tak aby ująć w badaniu wystąpienie ewentualnej reakcji inwestorów na odchylenie od wcześniej zdyskontowanego szacunku. Narzędziem, które zostanie wykorzystane w tym opracowaniu, będzie opracowana przez E. Famę i innych [1969] analiza zdarzeń (ang. event studies) pozwalająca uchwycić występowanie nadwyżkowych stóp zwrotu z akcji spółek w sąsiedztwie wydarzeń mających wpływ na ich wycenę rynkową.


Zanim badacz podzieli się ze światem wynikami swoich badań, musi przejść przez kilka etapów. To między innymi przygotowanie i analiza danych, opracowanie wyników w formie tabel i wykresów, kolejno przygotowanie raportu lub prezentacji, a także dystrybucja wyników swojej pracy. Każdy z tych etapów wymaga sporego zaangażowania oraz czasu, aby rezultat końcowy był satysfakcjonujący nie tylko dla analityka, ale również dla odbiorcy. W trakcie swojej pracy badacz często jest zmuszany do korzystania z wielu programów, które pozwalają mu na sprawną realizację wszystkich etapów. Każdy kto opracowywał wyniki badań ilościowych wie, że jest to jednak niewygodne i czasochłonne Czy to jedyne dostępne rozwiązanie? W swojej prezentacji postaram się pokazać, że korzystając z jednego programu można w pełni obsłużyć projekt badawczy. Nie rezygnując przy tym z zaawanasowanych technik analizy danych, nowoczesnych form wizualizacji, czy tworzenia raportu w dwóch formach równolegle, papierowej i elektronicznej. W swoje prezentacji pokażę również, że wyniki projektów badawczych mogą być w łatwy sposób udostępnianie współpracownikom, a projekty mające charakter powtarzalny można w znakomity sposób automatyzować. Pozwala to skupić się bardziej na badanych zagadnieniach niż na obsłudze badania.

14:45 – 15:00

Rozstrzygnięcie konkursu posterowego, informacje o publikacjach, podsumowanie i zakończenie konferencji

15:00 – 15:45

Lunch

 

Organizator wydarzenia

Predictive Solutions Sp. z o.o.
[dawniej SPSS Polska]
ul. Retoryka 1
31-108 Kraków

Kontakt

konferencja@ariadna.edu.pl

Kontakt techniczny
508 138 069

Uczelnie
Monika Michalska
508 138 069

Instytuty badawcze
Marzena Ciesielska
508 383 955

Śledź nas w internecie

Ustawienia dostępności
Wysokość linii
Odległość między literami
Wyłącz animacje
Przewodnik czytania
Czytnik
Wyłącz obrazki
Skup się na zawartości
Większy kursor
Skróty klawiszowe