다차원 데이터를 딥러닝 분석해 예술적으로 재구성하는 인공지능  

(AI that analyzes multidimensional data and reconstructs it artistically)


 관객 다차원 데이터 딥러닝 분석을 통한 전시경험설계 [완료]
(Exhibition Experience Design using Audience Multidimensional Data) [Completed]

2021.06. ~ 2021.12. funded by the Arts Council Korea (KRW 50 million)

작품 관람 중 나타나는 뇌파, 몸 움직임은 관객의 전시경험에 대해 많은 정보를 제공합니다. 그러나 뇌파, 몸 움직임을 통해 전시경험을 어떻게 이해할 수 있을지에 대한 프레임워크는 아직 불분명합니다. 본 프로젝트는 관객 다차원 데이터 (특히, 뇌파와 몸 움직임) 딥러닝 분석을 통해 전시경험을 이해할 수 있는 프레임워크를 제안하고 이를 활용한 적응형 미디어아트 신명: 무감서다 작품을 전시합니다. 특히 실제 관객 대상 실증연구를 통해 본 연구에서 제안한 프레임워크의 유효성을 실험적으로 검증하고자 합니다. 

Assessed brain waves and body movements while viewing art works provide a lot of information about the audience's exhibition experience. However, the framework for how to understand the exhibition experience through brain waves and body movements is still elusive. This project aims 1) to propose a framework for understanding the exhibition experience through deep learning analysis of audience multidimensional data (inter alia, brain waves and body movements) and 2) to exhibit adaptive media art works using this framework. In particular, we will 3) experimentally verify the validity of the framework proposed in this study through empirical studies targeting real audiences.