首页 | 本学科首页   官方微博 | 高级检索  
     

融合触、听、视觉的多通道认知和交互模型
引用本文:路璐,田丰,戴国忠,王宏安.融合触、听、视觉的多通道认知和交互模型[J].计算机辅助设计与图形学学报,2014(4):654-661.
作者姓名:路璐  田丰  戴国忠  王宏安
摘    要:以触觉相关的多通道交互研究为立足点,结合经典的多通道假设和最新的认知理论,提出一种融合触觉、听觉、视觉的多通道信息认知加工模型,并就计算机端的信息处理过程提出了多通道交互的分层处理模型,分析了相应的多通道整合方法.该模型对交互界面与程序主体功能定义不同的实现路径,区分交互设备和交互信息处理过程,有利于从不同角度对交互界面的研究工作进行简化,避免高耦合度带来的冗余工作量;实现了一个融合触、听、视觉交互的实例.实例结果表明,利用文中模型能够降低多通道交互研究的分析难度并提高实验效率.

关 键 词:人机交互  触觉交互  多通道整合  交互模型
本文献已被 CNKI 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号