wiedza / doświadczenie / inspiracje
Konferencja Analityczne wyzwania jest wydarzeniem powołanym do życia w 2017 r. z inicjatywy użytkowników oprogramowania z rodziny IBM SPSS i Predictive Solutions, reprezentujących środowisko akademickie.
Celem Konferencji jest integracja ludzi nauki wokół problematyki przetwarzania i analizy danych. Spotkanie to ma tworzyć szeroką platformę współpracy dla pracowników naukowych do wymiany doświadczeń. Patronat nad wydarzeniem objęli prof. dr hab. inż. Krzysztof Boryczko, Dziekan Wydziału Informatyki, Elektroniki i Telekomunikacji AGH oraz Piotr Komornicki, Prezes Predictive Solutions.
Program
wtorek
11 grudnia
9:00 – 10:00 |
Rejestracja uczestników |
||
10:00 – 10:15 |
Uroczyste otwarcie konferencji |
||
10:15 – 11:35 |
REFERATY PLENARNE, cz. 1Niepewność a zachęta: o podwójnej roli wskaźników naukometrycznychdr hab. Emanuel Kulczycki, prof. UAM Uniwersytet im. Adama Mickiewicza w Poznaniu 10:15 – 10:45 Celem wystąpienia będzie pokazanie, że sposób ewaluacji naukowców i uniwersytetów wynika z podwójnej roli wskaźników naukometrycznych. Z jednej strony wskaźniki (np. liczba cytowań publikacji) umożliwiają pomiar pożądanych cech pracy naukowców takich jakość prowadzonych badań, a używanie wielu wskaźników zwiększa niepewność ostatecznej decyzji osób oceniających. Z drugiej strony, wskaźniki naukometryczne są traktowane przez twórców systemów ewaluacji nauki jako zachęty, które mają spowodować zmianę praktyk naukowych. W swoim wystąpieniu pokażę, że sposób ewaluowania nauki wynika z relacji pomiędzy tymi, którzy tworzą zasady, tymi którzy je wykorzystują oraz tymi, którzy są oceniani. Pokażę, w jaki sposób wskaźniki wykorzystywane w polskim systemie ewaluacji jednostek naukowych realizują interesy poszczególnych grup interesariuszy. Dodatkowo pokażę, jak używanie zasad oceny uczelni do oceny pracownika wytwarza niepożądane praktyki. O autorze: Psychologia osobowości uprawiana more geometricodr hab. Jan Cieciuch, prof. UKSW Uniwersytet Kardynała Stefana Wyszyńskiego 10:45 – 11:15 Psychologia - pielęgnując swoją empiryczność oraz cyzelując metody zbierania i analizy danych - wygenerowała wiele modeli opisujących szczegółowe zjawiska psychiczne. Nie szło to jednak w parze z próbami syntezy lub choćby precyzyjnego opisu relacji między tymi modelami, jakby samo przekonanie o możliwościach takiej syntezy odeszło do historii wraz z wielkimi narracjami w innych naukach społecznych i humanistycznych. Podczas wystąpienia zostanie zaprezentowane podejście nazywane przez nasz zespół po kartezjańsku more geomterico. Polega ono na teoretycznym lokowaniu konstruktów i modeli w przestrzeni circumplexu, z precyzyjnie określanymi kątami (obecnie z dokładnością do 0,5 stopnia), a następnie weryfikacji tego ulokowania w badaniach empirycznych. Podejście to pozwoliło już na (1) propozycję daleko idącej syntezy wielu modeli z zakresu psychologii osobowości, temperamentu, emocji, motywacji, dobrostanu i psychopatologii, a także (2) diagnozę luk i propozycję naprawy różnych istniejących modeli stworzonych do opisu szczegółowych zjawisk z tego obszaru. Proponowane podejście jest tworzeniem swego rodzaju Tablicy Mendelejewa w psychologii, w której to tablicy racjonalizm i dedukcja nie są zdominowane przez lawinę niepowiązanych ze sobą przyczynków empirycznych, ale zaprowadzają porządek w empirycznym chaosie oraz rozświetlają ciemność - również przyszłych - wyników empirycznych (a przynajmniej dają taką nadzieję). O autorze: Podróże w czasie i przestrzeni, czyli o historiach opowiadanych przez daneJanusz Wachnicki Predictive Solutions 11:15 – 11:35 Wszystko zaczęło się od powiedzenia „per aspera ad astra” i taki był roboczy tytuł tej prezentacji. Ma ona opowiadać o ciernistej drodze, jaka wiedzie analityka od danych do wizualnej prezentacji wyników. Głównym wątkiem prezentacji jest skupienie się na zagadnieniach związanych doborem formy wizualizacji do danych. Wymaga to z jednej strony interesujących, odpowiednio przygotowanych danych, a z drugiej użycia właściwych, często dość specyficznych form wizualizacji. Tylko dzięki właściwemu mariażowi danych i ich wizualizacji może uzyskać właściwy efekt. Bez tego mariażu, sama informacja ma małe szanse na „dotarcie” do odbiorcy, tak jak i sama atrakcyjna forma wizualizacji „nie przemówi”, jeśli dane będą „milczeć”. O autorze: |
||
11:35 – 11:50 |
Przerwa na kawę |
||
11:50 – 12:30 |
REFERATY PLENARNE, cz. 2Wpływ czynników endogennych na poziom prognostycznych i diagnostycznych markerów osobniczej radiowrażliwości oraz skuteczności naprawy radiacyjnych uszkodzeń DNAprof. dr hab. Antonina Cebulska-Wasilewska 11:50 – 12:10 W badaniach naukowych Zakładu Biologii Radiacyjnej i Środowiskowej IFJ, PAN w Krakowie, od prawie czterdziestu lat korzystano z programu SPSS do analizy wpływu promieniowania jonizującego (obecnego w sposób nieunikniony w środowisku) na skutki biologiczne obserwowane w komórkach organizmów żywych, pochodzące od chemicznych czynników współdziałających (także synergistycznie w przypadku mutagennych, genotoksycznych). Wieloletnie badania skutków zdrowotnych u człowieka, prowadzono w limfocytach próbek krwi obwodowej, uzyskiwanych dobrowolnie od dawców z grup osób zdrowych; nieeksponowanych oraz z grup osób eksponowanych na różne czynniki genotoksyczne (obecne w środowisku zawodowym lub naturalnym; np. pestycydy, skażenia komunikacyjne, Hg), a także z grup pacjentów z klinik współpracujących w badaniach. Charakterystykę dawców i zmiennych niezależnych uzyskiwano w oparciu o kwestionariusze opracowywane przy współpracy z naukowcami z Instytutu Socjologii UJ. Wpływ uwarunkowań międzyosobniczego zróżnicowania analizowano w oparciu o rezultaty badań laboratoryjnych, uznanych w świecie markerów molekularnych oraz cytogenetycznych, w tym biomarkerów ryzyka zmian nowotworowych. Uzyskiwane rezultaty wykazywały ogromne zróżnicowanie międzyosobnicze we wrażliwości komórkowej, obserwowane we wszystkich grupach badanych. W niniejszym wystąpieniu zostaną przedstawione przykłady wykorzystania programu IBM SPSS Statistics/PS Imago do analizy porównawczej wpływu uwarunkowań osobniczych (takich jak; płeć, predyspozycje rodzinne, polimorfizm oznaczonych genów zaangażowanych w naprawę DNA) na międzyosobnicze zróżnicowanie odpowiedzi radiowrażliwości limfocytów osób eksponowanych na diagnostyczną, niską dawkę promieniowania jonizującego od 131I (potencjalnie środowiskową w przypadku awarii jądrowych), oraz wysoką (terapeutyczną) stosowaną w terapii chorób tarczycy. Analizę porównawczą prowadzono w odniesieniu do rezultatów badań w grupie kontrolnej osób zdrowych. Wybrane do analizy geny z grupy XRCC (X-ray cross complementary group) oraz markery biologiczne są powiązane z różnymi mechanizmami naprawy radiacyjnych uszkodzeń DNA. O autorce: Analiza przeżycia w badaniach biomedycznychdr hab. Agnieszka Pac Uniwersytet Jagielloński 12:10 – 12:30 Jednymi z ważniejszych problemów badawczych stawianych w badaniach biomedycznych są pytania o to jakie skutki zdrowotne związane są z narażeniem populacji na czynniki szkodliwe, jakie są konsekwencje zastosowania pewnych procedur medycznych, czy też podjęcia działań profilaktycznych. Często, oprócz samego wystąpienia skutku zdrowotnego, ważne jest również to kiedy, w jakim okresie skutki te są widoczne. Do rozwiązania tego typu problemów wykorzystywane są metody analizy przeżycia pozwalające, w porównaniu do innych typów analiz, na ocenę punktów końcowych, w zależności od czasu, który upłynął do ich wystąpienia. Dodatkową zaletą tego typu analiz jest możliwość wykorzystania danych respondentów/pacjentów, którzy nie ukończyli pełnego cyklu obserwacji objętej protokołem badania. W oparciu o dane pochodzące z 30-letniej obserwacji prospektywnej starszych wiekiem mieszkańców Krakowa przedstawiona zostanie analiza umieralności w zależności od wybranych charakterystyk społeczno-demograficznych oraz stanu zdrowia respondentów. W oparciu o możliwości pakietu PS IMAGO/IBM SPSS zilustrowane zostanie wykorzystanie krzywych Kaplana-Meiera do oceny krzywych przeżycia oraz oszacowania czasu do wystąpienia zgonu w badanej populacji. Dodatkowo, zaprezentowana zostanie możliwość wykorzystania modelu proporcjonalnego hazardu Coxa w poszukiwaniu czynników mogących mieć wpływ na ryzyko zgonu w grupie osób starszych. O autorce: |
||
12:30 – 13:00 |
SESJA POSTEROWAPrzerwa na kawę1. Analiza przestrzennego rozmieszczenia metali ciężkich w osadach dennych jeziora Wigry z wykorzystaniem cyfrowej obróbki danych metodą analizy wieloczynnikowejdr inż. Anna Kostka, dr hab. inż. Urszula Aleksander-Kwaterczak AGH w Krakowie Osady jeziorne są bardzo dobrym archiwum antropogenicznego zanieczyszczenia tych zbiorników różnymi substancjami, w tym metalami. Jeziora, jako bardzo cenne obiekty przyrodnicze, stanowią przedmiot zainteresowania naukowców z wielu dziedzin. Jednym z nich jest jezioro Wigry, na terenie którego przez kilkanaście lat prowadzono interdyscyplinarne badania naukowe pod kierownictwem prof. Jacka Rutkowskiego. W ramach tych badań pobrano ponad 1000 próbek osadów jeziora, z których prawie 500 zostało przebadanych pod kątem zawartości metali ciężkich: Cd, Cr, Cu, Fe, Mn, Pb i Zn. Uzyskane wyniki koncentracji metali wykorzystano do sporządzenia geochemicznych map rozmieszczenia poszczególnych pierwiastków w osadach jeziora. Tradycyjne metody interpolacyjne okazały się w tym wypadku mało przydatne, ze względu na geomorfologiczną wyjątkowość badanego jeziora, które ma bardzo urozmaiconą linię brzegową i zróżnicowaną głębokość. Ponadto dno Wigier wyściela kilka typów osadów. Zważywszy na powyższe uwarunkowania, do sporządzenia geochemicznych map jeziora zastosowano analizę wieloczynnikową, będącą jedną z metod GIS. Analiza taka pozwala modelować przestrzenne rozmieszczenie metali w osadach, z uwzględnieniem czynników, które mogą nań wpływać, jak np. głębokość jeziora, odległość od brzegów, odległość od dopływów itp. Wszystkie dane oraz mapy przygotowano w postaci cyfrowej, gdzie każdemu pikselowi mapy odpowiada liczbowa wartość danego czynnika, np. głębokości. Zestawiając wyekstrahowane z map wartości z koncentracjami metali w danym punkcie, można analitycznie powiązać te dwa parametry równaniem regresji liniowej. Istotna jest także siła tej zależności, której miarą jest współczynnik korelacji. Kolejny krok to przygotowanie map modeli cząstkowych, przedstawiających teoretyczne rozmieszczenie metalu wyliczone na podstawie odpowiedniego równania regresji liniowej. Ostatni krok to złożenie modeli cząstkowych w ostateczną mapę, gdzie każdy piksel wyliczany jest jako suma wartości tego piksela z poszczególnych map cząstkowych pomnożonych przez przypisane im wagi, zależne od siły korelacji. W przypadku wszystkich badanych metali uzyskano zadowalające rezultaty modelowania. Zanieczyszczenie Wigier ma charakter zarówno naturalny, jak i antropogeniczny, ale ogólnie jezioro klasyfikowane jest jako niezanieczyszczone lub zanieczyszczone w niewielkim stopniu. 2. Estymacja modelu APT z wykorzystaniem metod ślepej separacji sygnałówTomasz Soboń, dr hab. Ryszard Szupiluk Szkoła Główna Handlowa w Warszawie Wśród koncepcji związanych z wyceną aktywów kapitałowych do najbardziej popularnych należy Teoria Arbitrażu Cenowego (APT). Ze względu na stosunkowo otwartą formułę jej modele mogą występować w wielu postaciach. Podstawową kwestią związaną z określeniem oraz wykorzystaniem modelu APT jest dobór czynników mających wpływ na wycenę poszczególnych instrumentów finansowych. W niniejszym artykule zaprezentowano nowe podejście estymacji tych czynników oparte na metodach ślepej identyfikacji, w szczególności rozszerzonym algorytmie AMUSE. Algorytm ten może eksplorować statystyki zarówno drugiego rzędu jak również wyższych rzędów, co pozwala wyodrębnić z szeregów finansowych kluczowe dla modelu APT czynniki. Podejście to jest szczególnie adekwatne dla danych niegaussowskich. Przedstawiona koncepcja teoretyczna zostanie potwierdzona praktycznym eksperymentem na danych finansowych. 3. Konstrukcja i walidacja Kwestionariusza Zachowań Heroicznych (KZH)dr Karina Atłas, Maria Flakus Uniwersytet Śląski W aktualnych badaniach w zakresie psychologii zanotowano wzrost zainteresowania heroizmem, współistniejący z deficytem narzędzi do jego pomiaru. Wyniki przeprowadzonych analiz stanowią wstęp do badań nad trafnie zoperacjonalizowanym heroizmem i jego związkami ze zmiennymi z obszaru różnic indywidualnych. Powstałe narzędzie stanowi część szerszej teorii, w której heroizm definiowany jest jako skłonność do różnego typu zachowań dostępnych w życiu większości ludzi. W pierwszej fazie stosując procedurę sędziów kompetentnych (N=30) wygenerowano listę 363 zachowań heroicznych, które finalnie zredukowano do 49 najbardziej reprezentatywnych pozycji, odnoszących się do trzech kategorii heroizmu: bohaterskiego, światopoglądowego i finansowego. W drugiej fazie przeprowadzono badanie pilotażowe (N=200), w którym przeanalizowano moc dyskryminacyjną pozycji testowych. Wykonano także analizę składowych głównych (principal component analysis, PCA), na podstawie wyników której skrócono narzędzie oraz wyodrębniono sześć składowych heroizmu: heroizm bohaterski gorący i chłodny, światopoglądowy gorący i chłodny, interwencyjny i finansowy, tłumaczących 49,68% wariancji. W trzeciej fazie badań (N=523) sprawdzono dopasowanie wyodrębnionego modelu za pomocą konfirmacyjnej analizy czynnikowej (confirmatory factor analysis, CFA). Na etapie tym porównano trzy konkurencyjne modele: (1) sześcioczynnikowy, (2) hierarchiczny z jednym czynnikiem głównym i sześcioma czynnikami pierwszego rzędu oraz (3) podwójnego czynnika (bifactor), z czynnikiem głównym i sześcioma czynnikami specyficznymi. Analiza wskaźników dopasowania wskazała na najlepsze dopasowanie modelu sześcioczynnikowego (Χ2[419] =499,050, p<0,01; RMSEA=0,019 [0,011-0,025], CFI=0,991, GFI=0,965). Stworzone narzędzie charakteryzowało się zadawalającym poziomem zgodności wewnętrznej, a poszczególne komponenty heroizmu korelowały umiarkowanie i wysoko z innymi miarami heroizmu. Przeprowadzone analizy pokazały, iż możliwe jest stworzenie narzędzia pomiarowego będącego częścią większej teorii i odnoszącego się do pomiaru zmiennej trudnej do zoperacjonalizowania na gruncie psychologii. Wykorzystanie narzędzia możliwe jest w przyszłości nie tylko w obszarze badań naukowych, ale także praktyki psychologicznej, rekrutacji, selekcji i doradztwa zawodowego. 4. Wykorzystanie ANOVA w procesie szacowania niepewności na przykładzie wybranych oznaczeń parametrów fizykochemicznychPiotr Rusiniak, dr Katarzyna Wątor AGH w Krakowie Niepewność pomiaru jest jednym z najważniejszych parametrów szacowanych w badaniach środowiskowych, często jednak pomijanym i nie uwzględnianym w procesie decyzyjnym. Pozwala uzyskać informacje na temat szerokości przedziału, w obrębie którego, z określonym prawdopodobieństwem, znajduje się wielkość mierzona. Do szacowania niepewności wykorzystuje się metody teoretyczne i/lub empiryczne, a postępowanie obliczeniowe uzależnione jest od zastosowanego schematu jej oceny. W laboratoriach powszechnie stosowane są metody empiryczne, oparte na wynikach analiz próbek wzorcowych (np. CRM) i środowiskowych z uwzględnieniem próbek kontrolnych: ślepych, znaczonych i dublowanych. Do szacowania niepewności metrologicznej (oceny precyzji) wykorzystuje się informacje o wartości wariancji dla analizowanego parametru. W przypadku schematu rozszerzonego analizy uzyskujemy informację o wariancji geochemicznej (naturalnej zmienności) parametru fizykochemicznego, a także wariancję opróbowania i pomiaru (łącznie stanowiących wariancję techniczną). Schemat ten uwzględnia analizę próbek normalnych i dublowanych (pobranych jako duplikat próbek normalnych) i ich co najmniej dwukrotną analizę. Można również wykonać powtórzoną analizę dla próbki normalnej i pojedynczy pomiar dla próbki dublowanej, obniżając tym samym koszty procesu. Schemat uproszczony zakłada pojedynczą analizę próbki normalnej i dublowanej, i nie pozwala wydzielić składowych wariancji technicznej. W niniejszej pracy oszacowano niepewność dla dwóch parametrów chemicznych oznaczonych techniką instrumentalną oraz metodą klasyczną (żelaza oraz chlorków), a także dla parametru fizycznego – przewodności elektrycznej właściwej, w próbkach wód podziemnych ze Zdroju Królewskiego w Krakowie. Do wyznaczenia wartości niepewności wykorzystano program PS IMAGO 5 oparty na silniku IBM SPSS Statistics. Uzyskane wyniki wykazały różnice w udziałach każdej z trzech obliczonych składowych niepewności. W przypadku jonów chlorkowych obserwuje się większą niepewność związaną z pomiarem analitycznym, a w mniejszym stopniu z opróbowaniem wód z ujęcia. Rozpatrując stężenia jonów żelaza, główne źródło niepewności związane jest z próbek etapem poboru próbek, a dla przewodności elektrycznej właściwej uzyskane wartości zależą niemal wyłącznie od naturalnej zmienności parametrów fizykochemicznych wody, podczas gdy wielkość niepewności związanej z pomiarem nie przekracza 1%. 5. Interdyscyplinarność medioznawcza w obliczu zmian metod badawczychAnita Kwiatkowska, Marlena Sztyber Uniwersytet Warszawski Niejasna tożsamość dyscypliny nauki o mediach ma obecnie coraz bardziej rozmyty status. Z jednej strony, nieodłącznie związana jest z komunikowaniem społecznym, a co za tym idzie – również masowym, przez co łączy się z dyskursami politycznym i socjologicznym. Współczesne medioznawstwo przybrało jednak także po części fascynację nowoczesnymi rozwiązaniami technologicznymi oraz zastosowaniem badań behawioralnych, częściej kojarzonych z psychologią, a nawet neurochirurgią. Owo przesunięcie zrodziło nowe wyzwania analityczne w postaci potrzeby zmian w zakresie metod badania i stosowanej terminologii, które, zdaniem Walerego Pisarka, są podstawowymi gwarantami intersubiektywnej sprawdzalności. W referacie pragniemy przedstawić zarówno genezę i złożoność tożsamości medioznawstwa, jak i obecnie stosowane metody badań: od analizy zawartości przez różne formy badań ankietowych i etnograficznych, aż po badania z wykorzystaniem okulografów, systemów EEG i ECG, czy rozwiązań służących do monitorowania tzw. ekspresji mimicznej. Nowe technologie wykorzystywane w badaniach medioznawczych, pozwalają ponadto na dużą interdyscyplinarność, a wykorzystywane techniki i metody mogą mieć zastosowanie również w innych dziedzinach naukowych. Co więcej, brak jednej wielkiej teorii i metodologii odnośnie badań nad komunikowaniem masowym, powinno być traktowane jako siła tej dyscypliny, ponieważ umożliwia badaczowi wyjście poza sztywne ramy i korzystanie z rozwiązań wypracowanych przez wiele innych dziedzin. Jeśliby takie ramy wprowadzić byłyby one przyczynkiem do prawdopodobnie zubożenia dyscypliny i ograniczenia jej potencjału poznawczego. Prelegentki chciałyby zwrócić w swoim wystąpieniu także uwagę na dwa stanowiska w badaniu komunikacji masowych: 1. Empiryczne – „oparte na założeniu i istnieniu w mediach odgraniczonej, empirycznie badalnej i intersubiektywnie opisywanej rzeczywistości, możliwej do analizy przy pomocy ściśle określonych metod i procedur badawczych”. 2. Konstruktywistyczne – „skupione na procesach i sposobach w jakie nadawcy i odbiorcy konstruują świat, kreując znaczenie, co możliwe jest do opisu przy pomocy rozmaitych konceptualizacji.” 6. Ocena jakości wody podziemnej z ujęcia Wierchomlanka na podstawie wskaźników fizykochemicznych pod kątem przydatności do spożyciadr hab. inż. Urszula Aleksander-Kwaterczak, Aleksandra Stelmach AGH w Krakowie Woda podziemna z ujęcia Wierchomlanka bardzo często spożywana jest przez turystów oraz przez mieszkańców okolicznych miejscowości. Nie została ona dotychczas objęta monitoringiem jakości wód. Wykonane zostały badania właściwości fizyczno-chemicznych tej wody, mające na celu określenie jej przydatności do spożycia. Uzyskane wyniki badań zestawiono z wartościami normatywnymi zawartymi w Rozporządzenia Ministra Zdrowia w sprawie jakości wody przeznaczonej do spożycia przez ludzi (Dz.U. 2017 poz. 2294). Stwierdzono przekroczenie stężeń żelaza, manganu i selenu. Woda została uznana za warunkowo zdatną do spożycia. Ponadto stwierdzono, że ze względu na wysoką zawartość makroelementów (m.in. wapnia i magnezu) może ona posiadać właściwości korzystne dla zdrowia, podobnie jak inne wody mineralne występujące w rejonie Beskidu Sądeckiego, charakteryzujące się zbliżonym do niej składem chemicznym. Wyniki badań opracowano i zobrazowano za pomocą różnych metod statystycznych (w tym Data Mining). Badania zostały sfinansowane z badań statutowych nr 11.11.140.017 7. Aspekty sprawczości i wspólnotowości w postrzeganiu i efektywności marketingowej reklam o charakterze sprawczym i wspólnotowymKonrad Hryniewicz Uniwersytet SWPS Badania nad promowaniem produktów za pomocą reklam są ciągle w nauce aktualne i nie zanosi się na to, że na aktualności stracą. Naukowcy i praktycy są ciągle zainteresowani przyczynami które wywołują efektywność marketingową prezentowanych w reklamach produktów i usług. W prezentowanym badaniu zaobserwowano, że nadanie produktowi wyraźnych cech osobowości i jego antropomorfizacja, są silnymi determinantami efektu zbieżności osobowości produktu z Ja sprawnym, asertywnym, moralnym i ciepłym, a także intencją jego zakupu, postawą wobec niego, reklamy i firmy, a także chęcią zapłaty za produkt. W toku przeprowadzonego eksperymentu i modelowania strukturalnego PLS uzyskano obserwacje, które wskazują, że reklama produktu którego osobowość jest wysoce sprawno-asertywna i nisko moralno-ciepła (reklama sprawcza) jest efektywna marketingowo dla osób, które są: nisko sprawne, wysoce asertywne, wysoce moralne. Osoby te wyrażają jednocześnie chęć mniejszej zapłaty za taki produkt. Typ reklamy sprawczej wywoływał to, że zbieżność osobowości produktu z Ja nie pośredniczyła między cechami osobowości, a pomiarami efektywności. Wiązała się natomiast bezpośrednio z większą chęcią zapłaty za produkt. Natomiast reklama produktu którego osobowość jest wysoce sprawno-moralno-ciepła i nisko asertywna (reklama sprawno-wspólnotowa) jest efektywna marketingowo dla osób, które są: wysoce sprawne (bo dostrzegają rozbieżność osobowości produktu z Ja i wyrażają większą chęć zapłaty), wysoce moralne (bo dostrzegają rozbieżność osobowości produktu z Ja), wysoce asertywne i ciepłe (ze względu na zbieżność osobowości z Ja i wyrażają mniejszą chęć zapłaty). Typ reklamy sprawno-wspólnotowej wywoływał to, że zbieżność osobowości produktu z Ja wiązała się z większą efektywnością reklamy, ale nie z chęcią zapłaty. 8. Wykorzystanie serii danych piezometrycznych do prognozowania przebiegu filtracji w korpusie hydrotechnicznej budowli ziemnejdr inż. Mariusz Cholewa Uniwersytet Rolniczy w Krakowie Badania modelowe filtracji przez nasypy dają możliwość określenia przebiegu krzywych przepływu w korpusie modelu a pośrednio przez pomiar wydatku filtracyjnego i parametrów geometrycznych obliczenie współczynnika filtracji. W przypadku nasypów z materiału jednorodnego określenie przebiegu filtracji jest znacznie prostsze w porównaniu do nasypów, w których zabudowano geosyntetyki. Dodatkowe wkładki anizotropują ośrodek, przez który filtruje woda, co może zmieniać warunki pracy całego nasypu. Duża liczba rejestrowanych danych wymaga odpowiedniej aparatury a później analizy, najczęściej z wykorzystaniem narzędzi informatycznych. Referat przedstawia badania modelowe przeprowadzone na nasypie hydrotechnicznym. Uformowany z gruntu mineralnego model piętrzący wodę został opomiarowany zestawem czujników piezometrycznych. Zakres i różnorodność zgromadzonych cyfrowo danych pozwoliła na przeprowadzenie testów analitycznych z wykorzystaniem narzędzi statystycznych w celu oceny uwarunkowań poszczególnych czynników, oraz statystycznej oceny istotności. 9. Rolnicy wobec ubezpieczeń na życieOlga Podlińska, Aleksandra Wicka, Milena Leśniewska SGGW w Warszawie Wykonywanie zawodu rolnika jest związane z dużym ryzykiem, zarówno biorąc pod uwagę działalność produkcyjną i uzyskiwane z niej przychody, jak również niebezpieczeństwo wystąpienia wypadku lub choroby. Dlatego też poza obowiązkowym ubezpieczeniem społecznym, rolnicy mogą skorzystać z szerokiej oferty dodatkowych ubezpieczeń gospodarczych, do których należą ubezpieczenia osobowe, tzw.: życiowe, life, działu I. Ubezpieczenia osobowe dotyczą zdarzeń odnoszących się do dóbr osobistych ubezpieczonych, przede wszystkim życia i zdrowia, ale również sytuacji rodzinnej. W polskiej literaturze przedmiotu kwestia zainteresowania rolników ubezpieczeniami na życie nie została jeszcze dokładnie omówiona. Niniejsza praca ma stanowić próbę rozpoznania problematyki dotyczącej wykorzystania możliwości zapewnienia bezpieczeństwa finansowego sobie i swoim bliskim przez rolników w oparciu o istniejące źródła danych i badania własne. Celem opracowania jest przedstawienie wyników badań dotyczących poziomu korzystania przez rolników z ubezpieczeń na życie i identyfikacja czynników ekonomicznych i pozaekonomicznych, które mogłyby spowodować większe zainteresowanie tymi produktami wskazanego segmentu klientów. Badanie metodą ankietową wykonano, wykorzystując platformę do realizacji badań ankietowych, wspierającą proces gromadzenia danych, ich analizy, a także raportowanie — PS QUAESTIO PRO zawierającą IBM SPSS Statistics 24. Próba badawcza wynosiła 153 rolników w wieku 25-60 lat. W pracy wykorzystano miary statystyki opisowej, analizę korelacji i miary współzależności cech oparte na statystyce Chi-kwadrat. Stwierdzono, że badani rolnicy w bardzo małym stopniu wykorzystują produkty należące do działu I ubezpieczeń – „Ubezpieczenia na życie” (31% respondentów). Według badanych, czynnikami, które mogłyby wpłynąć na większe zainteresowanie ubezpieczeniami life, były niższa cena (68%) i lepsza oferta (36%). Jednym z czynników oddziaływujących negatywnie na zainteresowanie produktami ubezpieczeniowymi, które mogłyby zapewnić dodatkowe środki finansowe po przejściu rolników na emeryturę okazała się możliwość przekazania gospodarstwa następcy w zamian za dożywotnie utrzymanie. 10. Czy istnieje możliwość usprawnienia procesu wyceny opcji europejskich? Analiza modelu S. L. Hestonadr Arkadiusz Orzechowski Szkoła Główna Handlowa w Warszawie Celem artykułu jest wycena opcji europejskich za pomocą modelu S. L. Hestona. Ze względu na to, że oryginalne podejście jest nieefektywne, istnieje konieczność poszukiwania alternatywnych koncepcji zapewniających możliwość bardziej „sprawnego” określenia wartości teoretycznych będących przedmiotem zainteresowania kontraktów. W ramach podejmowanej problematyki analizie poddawane są z jednej strony alternatywne sposoby wyznaczania transformaty Fouriera, której zastosowanie jest konieczne do wyznaczenia cen modelowych analizowanych derywatów, z drugiej zaś sprawdzeniu poddawane są różne schematy numeryczne wyznaczania samej transformaty Fouriera. Na podstawie otrzymanych wyników można sformułować dwa wnioski. Pierwszy z nich stanowi, iż istnieją bardziej efektywne sposoby obliczania transformaty Fouriera, drugi natomiast odnosi się do istotnego wpływu wykorzystywanych schematów numerycznych m.in. na szybkość generowania wyników końcowych. 11. Analiza alternatywnych modeli stochastycznej zmienności do wyceny opcji europejskichdr Arkadiusz Orzechowski Szkoła Główna Handlowa w Warszawie Celem artykułu jest sprawdzenie, który z modeli stochastycznej zmienności ma największe zastosowanie w procesie wyceny opcji europejskich. W ramach podejmowanej problematyki analizie poddawane są modele, w przypadku których zakłada się stochastyczną zmienność cen aktywów, na które opiewają analizowane instrumenty pochodne. Kwestia, na którą zwracana jest szczególna uwaga, odnosi się do wpływu skoków kursowych na otrzymywane wyniki końcowe. Na podstawie rezultatów przeprowadzonych badań można stwierdzić, iż wartość modelowa opcji jest bardzo wrażliwa na parametry, zaś na ostateczny wybór najlepszego podejścia do określania wartości teoretycznych rozpatrywanych kontraktów duży wpływ ma dobór okresu analizy. |
||
13:00 – 14:45 |
RÓWNOLEGŁE SESJE NAUKOWE
|
||
14:45 – 15:00 |
Rozstrzygnięcie konkursu posterowego, informacje o publikacjach, podsumowanie i zakończenie konferencji |
||
15:00 – 15:45 |
Lunch |
Organizator wydarzenia
Predictive Solutions Sp. z o.o.[dawniej SPSS Polska]
ul. Retoryka 1
31-108 Kraków
Kontakt
Kontakt techniczny
508 138 069
Uczelnie
Monika Michalska
508 138 069
Instytuty badawcze
Marzena Ciesielska
508 383 955