深層学習等の技術では推論過程がブラックボックス化されており,人間は判断の根拠を知ることが出来ません.これは,自動運転等のミッションクリティカルシステムにおいて安全性を損なう大きな問題として認識されています.本研究では,ベイジアン機械学習を応用した推論系を構築することで,推論結果とそれを与える要因をベイズ則によって結び付け,推論過程の説明が可能なAIを実現します.また,ゲートレベル自己同期回路を用いたアクセラレータを開発し,人型ロボット制御への応用を目指します.