Przejdź do głównej treści

Widok zawartości stron Widok zawartości stron

Pomiń baner

Widok zawartości stron Widok zawartości stron

Widok zawartości stron Widok zawartości stron

JAHCAI Lab

Tematyka badawcza JAHCAI Lab (Jagiellonian Human-Centered Artificial Intelligence Lab) koncentruje się na najnowocześniejszych badaniach dotyczących wpływu rozwoju sztucznej inteligencji (AI) na życie człowieka. Zainteresowania badawcze Laboratorium obejmują z jednej strony rozwój modeli, metod i technik sztucznej inteligencji, a z drugiej budowanie interdyscyplinarnego pola ich poszerzania i stosowania w ściśle określonych obszarach spoza informatyki. Interesujące nas metody AI obejmują maszynowe wspomaganie decyzji, modelowanie wiedzy i ekstrakcję wiedzy symbolicznej, eksplorację i inteligentną analitykę danych, metody wnioskowania kontekstowego i objaśnialności w systemach AI (XAI, eXplainable Artificial Intelligence) oraz metody integracji wiedzy symbolicznej z modelami statystycznymi.

Obszary współpracy z innymi dyscyplinami i zastosowań obejmują m.in. analitykę danych i zachowań w grach wideo i grach poważnych, multimodalną interakcję człowiek-maszyna, rozwój systemów wspomagających dla seniorów, a także osób niepełnosprawnych (Ambient Assisted Living, Quality of Life), obliczenia afektywne (AfC, Affective Computing), percepcję maszynową, wspomaganie analizy sygnałów biomedycznych, metody sztucznej inteligencji w Przemyśle 5.0, prawo - w tym systemy wnioskowań prawnych i argumentacji prawniczej, m. in. w obszarze Responsible AI (RAI) - i wreszcie humanistykę cyfrową (DH, Digital Humanities).

JAHCAI składa się z 5 grup roboczych:

  1. Analityka danych w grach (DSG, Data Science in Games): badania poświęcone analityce danych na potrzeby sztucznej inteligencji zorientowanej na człowieka (Human-Centered AI), w tym gier wideo i nowych aplikacji VR, AR i MR (rzeczywistości wirtualnej, rozszerzonej i mieszanej), a także narracji obliczeniowej, które są związane z rozwojem emocjonalnych interfejsów HCI/BCI opartych na multimodalnym połączeniu sygnałów fizjologicznych, głosu, mimiki i danych kontekstowych.
  2. Interakcja człowiek-maszyna (HMI, Human-Machine Interaction): badania nad emocjonalnymi interfejsami HCI/BCI, analiza EEG w celu oceny procesów poznawczych oraz badania nad adaptacją i personalizacją interfejsu użytkownika - emocjonalnego i opartego na wiedzy (systemach rekomendacji, obliczeniach afektywnych i Ambient Assisted Living), a wreszcie nowatorskie interfejsy wizualne.
  3. Wiedza i objaśnialność (KNE, Knowledge and Explanation): rozwijanie objaśnialnych metod AI łączących modele symboliczne i modele uczenia maszynowego (w Przemyśle 4.0, 5.0 i AfC), ulepszanie systemów wspomagania decyzji oraz zwiększaniem przejrzystości i odpowiedzialności; ponadto rozważane są metody oparte na grafach wiedzy do rozumowania w wielu dziedzinach.
  4. Prawo, sztuczna inteligencja i odpowiedzialność (LAR; Law, AI and Responsibility): badania metod reprezentacji systemu prawnego, wiedzy prawnej i rozumowań prawnych, a także implikacji tych badań dla XAI i przypisywania odpowiedzialności systemom sztucznej inteligencji (RAI).
  5. Postrzeganie maszynowe (MPR, Machine Perception): badanie opartych na sztucznej inteligencji systemów zastępowania zmysłów u osób niewidomych, mających na celu stworzenie systemów zastępowania informacji wzrokowych, które dzięki sztucznej inteligencji analizują obraz, uwzględniając przekształcenia dokonywane przez układy wzrokowe osób widzących. Ponadto grupa pracuje nad rozwojem innowacyjnych multimodalnych analiz danych biomedycznych i psychologicznych, a także nad rozwojem automatycznych metod oceny stanu medycznego i ergonomicznego człowieka. Kolejny obszar badań to modelowanie i analiza percepcji sztucznych układów z wykorzystaniem metod sztucznej inteligencji.

Zespół

  • Prof. dr hab. Grzegorz J. Nalepa (lider labu)
  • Dr Michał Araszkiewicz
  • Dr inż. Szymon Bobek
  • Dr inż. Krzysztof Kutt
  • Dr Jeremi K. Ochab
  • Dr hab. Paweł Węgrzyn
  • Prof. dr hab. Michał Wierzchoń

Projekty

2023 - 2027 - PEER (hyPEr ExpeRt) EU HORIZON HORIZON-CL4-2022-HUMAN-02 (RIA) (Proposal 101120406)
2022 - 2024 - ODR e-Justice EU HORIZON JUST-2021-EJUSTICE Call (101046468)
2021 - 2024 - eXplainable Predictive Maintenance - CHIST-ERA 2019 XAI