首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 125 毫秒
1.
手持移动计算中的多通道交互   总被引:14,自引:1,他引:14       下载免费PDF全文
手持移动计算已逐渐成为当今主流的计算模式之一,人机交互是其中的关键问题.多通道用户界面和多通道交互方式能够有效地提高移动环境中人机交互的效率.讨论了移动环境中的多通道交互模型,并结合设计开发的移动导游系统TGH(tour guide on hand),分析了多通道交互在手持移动计算中的应用.性能测试表明,笔和语音结合的多通道交互方式在移动环境中能够较好地提高人机交互效率.  相似文献   

2.
叙述了在手持移动计算设备上的基于上下文感知的多通道交互模型、多通道汉字输入、移动计算中的小屏幕网络浏览策略等方面的研究成果。实现了一个智能导游系统TGH,对这些模型和方法进行了应用和测试。最后总结了手持移动计算中人机交互技术研究的一些结论。  相似文献   

3.
黄进  陈毅能  刘杰  田丰  戴国忠  王宏安 《软件学报》2016,27(S2):156-171
随着平板电脑、智能手机、智能手表等智能移动设备的普及,利用便携的智能移动设备随时随地进行健康评价受到了国内外学者的广泛关注.人机交互特有的多通道、交互式、人机协同的计算能够有效地提高移动环境下神经功能评价的准确度.然而,目前很少有研究对人机交互在这一应用场景上发挥的作用进行过充分讨论,更没有形成统一的多通道交互模型.为此,首先分析了目前移动设备上主流的神经功能评价方法,归纳总结出了一套适用该应用场景的交互原语和交互任务.然后,在此基础上提出了移动环境下神经功能评价多通道人机交互模型——MINA(multimodal human-computer interaction model for nerve function assessment in mobile environment),并对该模型的移动医学评价和多通道融合特点进行了分析.最后,依据此模型给出神经系统疾病检测的应用实例.实践证明,MINA能够较好地指导交互式神经功能评价应用的设计和开发,多通道融合的方式能够有效地提高医学评价的准确度.  相似文献   

4.
将多通道交互用于虚拟环境,研究自然和谐的交互方式已经成为虚拟现实的一个重要研究方向.文中以城市规划为应用背景,融合跟踪器、语音和笔输入,提出概率合一的任务制导多通道整合,并辅以上下文语义;以此为基础,有针对性地设计了多通道交互技术,并依据多通道交互的特性分别进行阐述,实现了自然、高效的多通道虚拟城市规划.  相似文献   

5.
融合触、听、视觉的多通道认知和交互模型   总被引:2,自引:0,他引:2  
以触觉相关的多通道交互研究为立足点,结合经典的多通道假设和最新的认知理论,提出一种融合触觉、听觉、视觉的多通道信息认知加工模型,并就计算机端的信息处理过程提出了多通道交互的分层处理模型,分析了相应的多通道整合方法.该模型对交互界面与程序主体功能定义不同的实现路径,区分交互设备和交互信息处理过程,有利于从不同角度对交互界面的研究工作进行简化,避免高耦合度带来的冗余工作量;实现了一个融合触、听、视觉交互的实例.实例结果表明,利用文中模型能够降低多通道交互研究的分析难度并提高实验效率.  相似文献   

6.
基于智能手机的三维交互技术研究   总被引:2,自引:0,他引:2  
利用智能手机的多通道输入和输出功能可为解决大屏幕远距离交互提供了一条有效途径.通过分析大屏幕远距离交互的特点,给出了一个基于智能手机的三维交互框架;针对利用惯性传感器的计算智能手机空间姿态问题,结合交互的特点提出了一种实时、快速、准确地解算手机的空间姿态的算法;基于手机的空间姿态和触摸交互,针对大屏幕交互中二维交互与三维交互分别设计了2类交互技术,并给出3个应用实例.最后通过实验对这3个实例进行了实验评估,结果表明智能手机在大屏幕、远距离交互中是合理与有效.  相似文献   

7.
面向儿童的多通道交互系统   总被引:9,自引:2,他引:9  
李杰  田丰  王维信  戴国忠 《软件学报》2002,13(9):1846-1851
设计和实现了一个基于笔和语音的面向儿童的多通道三维交互系统.系统中包含了基于笔和语音的交互信息整合框架,用来整合儿童输入的笔和语音信息.同时,系统中定义了一些基于笔和语音的交互技术,可以支持孩子们以自然的方式,通过笔和语音同系统进行交互.用笔来勾画三维的场景和小动物等实体,同时用笔和语音同场景和场景中的实体进行一定的交互.  相似文献   

8.
多通道遥交互(Multimodal Tele-interaction,MMTI)旨在通过使用多种交互设备和协作方式,并利用多交互通道间的互补特性,以便有效传达和理解用户交互信息,提高交互效率,增进交互自然性,最终使用户能够以“预期的想法”完成遥交互任务。近年来,随着多通道遥交互的发展,人们对深空、深海和远程医疗的探索和开发不断增强,由于通信时延的约束,多通道遥交互面临着交互异步和通道缺失等问题,对用户行为、心理和认知等人素特性产生了根本影响,切断和阻碍了交互通道的连续性、实时性和自然性,降低了交互的用户体验,并进一步影响了系统的有效性,因此迫切需要对大时延约束下的多通道遥交互技术进行研究。分析了国内外研究现状,给出了遥交互的一个定义,讨论了遥交互研究问题和关键技术(包括时延、异步和缺失问题),讨论了其关键应用领域,最后展望了遥交互的发展趋势和研究挑战。  相似文献   

9.
用户界面由"以技术为中心"向"以用户为中心"发展的趋势,使自然直观的自然人机交互成为界面发展的必然趋势。手势交互这一交互方式作为适应自然交互趋势的界面交互形式,正逐渐受到大家的重视,应用的广泛性日益扩大。手势交互开始应用在不同的界面领域,对手势交互在移动手持设备中的应用是一个可以发展的广阔领域,本文就这一发展趋势就行研究和分析,力求通过研究为这一应用提供更多具有可借鉴性的设计原则。  相似文献   

10.
马翠霞  戴国忠  王宏安 《软件学报》2006,17(Z1):243-248
计算机处理速度和性能的迅猛提高并没有相应提高用户使用计算机交互的能力,其中一个重要原因就是缺少一个与之相适应的高效、自然的人机交互界面.普适计算的发展为人们提供了一个无处不在的获取服务的环境,而多通道用户界面允许用户使用自然的交互方式,如语音、手势、表情等在此环境中与系统进行协同工作,改变了传统交互手段的局限性.重点讨论了基于笔和语音的多通道交互,给出了普适环境中对多通道交互建模的框架,进一步研究了在图形信息应用中的多通道交互实例,论证了创建自然多通道交互方式的优势.  相似文献   

11.
基于任务的多通道整合设计与实例   总被引:4,自引:2,他引:4  
多通道人机交互技术的研究旨在为计算机用户提供一个方便高效的人机交互环境。  相似文献   

12.
尽管深度学习因为强大的非线性表示能力已广泛应用于许多领域,多源异构模态数据间结构和语义上的鸿沟严重阻碍了后续深度学习模型的应用。虽然已经有许多学者提出了大量的表示学习方法以探索不同模态间的相关性和互补性,并提高深度学习预测和泛化性能。然而,多模态表示学习研究还处于初级阶段,依然存在许多科学问题尚需解决。迄今为止,多模态表示学习仍缺乏统一的认知,多模态表示学习研究的体系结构和评价指标尚不完全明确。根据不同模态的特征结构、语义信息和表示能力,从表示融合和表示对齐两个角度研究和分析了深度多模态表示学习的进展,并对现有研究工作进行了系统的总结和科学的分类。同时,解析了代表性框架和模型的基本结构、应用场景和关键问题,分析了深度多模态表示学习的理论基础和最新发展,并且指出了多模态表示学习研究当前面临的挑战和今后的发展趋势,以进一步推动深度多模态表示学习的发展和应用。  相似文献   

13.
模态是指人接收信息的方式,包括听觉、视觉、嗅觉、触觉等多种方式。多模态学习是指通过利用多模态之间的互补性,剔除模态间的冗余性,从而学习到更好的特征表示。多模态学习的目的是建立能够处理和关联来自多种模式信息的模型,它是一个充满活力的多学科领域,具有日益重要和巨大的潜力。目前比较热门的研究方向是图像、视频、音频、文本之间的多模态学习。着重介绍了多模态在视听语音识别、图文情感分析、协同标注等实际层面的应用,以及在匹配和分类、对齐表示学习等核心层面的应用,并针对多模态学习的核心问题:匹配和分类、对齐表示学习方面给出了说明。对多模态学习中常用的数据集进行了介绍,并展望了未来多模态学习的发展趋势。  相似文献   

14.
在多模态深度学习发展前期总结当前多模态深度学习,发现在不同多模态组合和学习目标下,多模态深度学习实现过程中的共有问题,并对共有问题进行分类,叙述解决各类问题的方法。具体来说,从涉及自然语言、视觉、听觉的多模态学习中考虑了语言翻译、事件探测、信息描述、情绪识别、声音识别和合成以及多媒体检索等方面研究,将多模态深度学习实现过程中的共有问题分为模态表示、模态传译、模态融合和模态对齐四类,并对各类问题进行子分类和论述,同时列举了为解决各类问题产生的神经网络模型。最后论述了实际多模态系统、多模态深度学习研究中常用的数据集和评判标准,并展望了多模态深度学习的发展趋势。  相似文献   

15.
多通道交互已经成为人机交互领域一个重要的研究方向,对多通道输入的信息进行语义融合是其中的关键问题.提出了一种将上下文与传统语义融合相结合的方法,并将这一方法应用在面向儿童使用的讲故事原型系统中.儿童通过受限的自然语言、笔的勾画等方式进行故事创作.结果表明,笔和语音结合的多通道交互方式能够使得儿童更方便、自然地与计算机进行交互,结合上下文的语义融合方法能够在一定程度上修正输入错误.  相似文献   

16.
This paper describes a new application framework (OpenMAF) for rapid development of multimodal applications in computer-aided medicine. MAF applications are multimodal in data, in representation, and in interaction. The framework supports almost any type of biomedical data, including DICOM datasets, motion-capture recordings, or data from computer simulations (e.g. finite element modeling). The interactive visualization approach (multimodal display) helps the user interpret complex datasets, providing multiple representations of the same data. In addition, the framework allows multimodal interaction by supporting the simultaneous use of different input-output devices like 3D trackers, stereoscopic displays, haptics hardware and speech recognition/synthesis systems. The Framework has been designed to run smoothly even on limited power computers, but it can take advantage of all hardware capabilities. The Framework is based on a collection of portable libraries and it can be compiled on any platform that supports OpenGL, including Windows, MacOS X and any flavor of Unix/linux.  相似文献   

17.
This paper presents the results of an experiment comparing two different designs of an automated dialog interface. We compare a multimodal design utilizing text displays coordinated with spoken prompts to a voice-only version of the same application. Our results show that the text-coordinated version is more efficient in terms of word recognition and number of out-of-grammar responses, and is equal to the voice-only version in terms of user satisfaction. We argue that this type of multimodal dialog interface effectively constrains user response to allow for better speech recognition without increasing cognitive load or compromising the naturalness of the interaction.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号