坂本 修一教授本研究分野では、外界から入力される様々な情報を人間が統合処理し脳内で認識・学習する過程を明らかにしてモデル化し、脳型LSIなど神経細胞を模擬するハードウエアに実装することを目指して研究を進めている。視聴覚音声知覚や、自己運動中の音空間知覚など、聴覚情報、及び複数の感覚情報が複合して存在する環境下での人間の知覚情報処理過程を心理物理学的な手法を用いて解明するとともに、その知見を活用した、高精細3次元音空間センシングシステムやマルチモーダル聴覚支援システム等の音響情報システムの構築・高度化に取り組んでいる。Shuichi SakamotoProfessor66人の顔表情から画像の嗜好に関する判断予測システムを構築。お弁当画像と風景に関する実験例。いずれも同一被験者のデータを利用するとよい推定ができることから、個人にカスタマイズすることで思考に基づく情報選択の支援システムに利用できる。Estimation of preference judgments using facial expression. Since the accuracy is higher when the system is trained and tested within subjects, this technique can be used to support selection of image data for each person by customization.To create computational models of the process that the hu-man brain integrates multiple sensory inputs from the outside world, we are investigating the visual and auditory functions in the human brain for implementing these functions in hardware under biologically plausible settings. Our approaches include psychophysics, brain wave measurements, and computer sim-ulations.We study the mechanism of human multimodal processing, in-cluding hearing. In particular, we focus on speech perception as an audio-visual process, the judgment of auditory space during motion and the impression of a sense-of-reality in multimodal content. Such knowledge is crucial to develop advanced com-munication and information systems. Based on this knowledge, we are developing future auditory information systems.Research ActivitiesAuditory and Multisensory Information Systems(Prof. Sakamoto)Staff認識・学習システム研究室Recognition and Learning Systems研究活動聴覚・複合感覚情報システム研究分野|坂本教授
元のページ ../index.html#68