一、产品概述
iMotions是一款当下真正意义上的多模态实时采集分析平台。系统可以组合来自眼动仪(基于屏幕,眼镜和VR),EDA/GRS,ECG,EEG,面部表情分析和调查的刺激呈现,数据采集和分析。结合EEG生物传感器,探究潜在的情绪和反应,也可将EEG与其他生物传感器(眼动追踪和面部表情分析)结合在一起,可以有效地释放人类的情绪和生理反应。降低了进行多模式研究的复杂性,从而可以无缝连接各种传感器。 通过组合这些不同的生理测量,可以更好地了解任何环境下的人类行为,当然实时采集分析对设备品牌组合有一定的要求。
连接、记录、分析
系统的刺激演示(图像、视频、网站、游戏、移动/应用程序和 VR)
集成并同步所有类型的传感器(眼动跟踪、面部表情分析、电极活动(又名GSR、EEG、心电图、EMG)
包括 API 以从其他来源传输/导出数据
内置调查工具,向数据集添加调查问卷
数据流的实时可视化
注释和行为编码的实时和后标记
按点和单击构建学习设计
场景和受访者录音和重播
使用嵌入式脚本对数据进行可视化,从而完成研究编辑和分析
同步生物传感器
支持 50 多个常规生物传感器。
在人类行为研究中,如眼动追踪、面部表情分析、电皮活动/皮肤反应、EEG、EMG 和心电图硬件等,为 50 多个生物传感器提供全面集成和同步支持
API 和实验室流层,用于额外的传感器集成
内置调查工具,以减少偏见,用生物信号的非意识心理生理反应对受访者的陈述答案进行三角测量
当前刺激
在实验室、现实世界或 VR 中进行研究。
将受访者暴露在实验室或虚拟现实设置中的图像、视频、网站、游戏、应用程序或软件中,或将您的学习手机带入现实世界
场景相机允许在产品设计研究和移动接口(如智能手机和平板电脑)中测试真人物体
保持控制
保持实验灵活性和控制
在iMotions中分配整个实验过程,系统的行为分析软件
按点和单击构建学习设计
根据需要轻松设置参与者组、随机化和块设计
可视化和重播
实时查看数据或重播
在数据收集的瞬间或之后可视化原始和聚合的数据。
从多达三个不同的摄像机中收集响应者和屏幕记录,与刺激和传感器同步。
出口原始数据、结果和指标,以在 Excel、SPSS、MatLab 等中处理。
将记录的数据导出为汇总表或原始数据。
使用完全透明的嵌入式 R 脚本自动分析一系列数据。
二、产品特点
该数据整合采集分析系统具有以下特别优势:
轻松从多个传感器收集数据,例如眼动追踪,面部表情分析,GSR和EEG自动实时同步所有传感器数据;
所有操作都在一台PC和一个软件应用程序中进行;
iMotions使生物技术研究人员能够研究、采集、分析并可视化数据。该系统包括以下功能并持续更新:
学习设置与设计;
刺激表现;
数据收集;
分析和可视化工具;
三、技术参数
1.核心基础模块(必选)
1)研究设计-建立研究设计(对象内和对象间,模块,随机等);
2)刺激演示-多媒体功能,包括图像,视频,实时网站,调查,手机应用程序,软件界面,游戏,VR,AR等。支持3个摄像头采集;
3)数据收集-响应者管理,实时查看,行为指标等;
4)标记和注释-使用注释创建实时或后处理标记;
5)数据分析-各种自动化功能和易于使用的工具;
6)数据导出导出原始数据,摘要指标,视频和静态刺激的数据可视化等;
7)数据导入-导入外部数据源以进行可视化/同步;
8)面部/环境摄像头-包括从多达三个不同的摄像头中记录受访者的面部和/或环境的功能;
9)调查-与生物识别研究结合或分开进行的计划和启动调查;
10)集成几乎所有设备并将数据发送到软件平台中以实现完全同步;
11)将所有同步事件转发至软件平台;
12)实时可视化所有数据流;
13)TTL触发器,用于通过其他程序发送积分信号,以实现同步精度;
14)LSL(实验室流传输层)集成选项,用于从任何LSL支持的设备实时接收时间轴信号。将更多设备集成到软件平台中;
15)远程控制:允许外部程序控制软件平台;
2.Affectiva 情绪感知模块(可选)
1)通过网络摄像头连接到Affectiva模块;
2)测量针对基于屏幕或身体刺激的面部表情;
3)导入外部录制的视频以进行面部表情的后期处理;
4)基于云处理,可进行快速分析;
5)效价:正面,不好的或中性反应
6)7种基本情绪:喜悦,愤怒,惊奇,恐惧,悲伤,厌恶,轻蔑;
7)承诺:整体表达能力-受访者保持中立或参与;
8)21种面部表情:注意力,眉毛皱纹,眉毛抬高,眉毛内侧抬高,闭眼,鼻子皱纹,上唇提升,唇吸,唇褶,唇部按压,张开,唇角抑制器,下巴提升,傻笑,微笑;
9)33个面部标志:面部的几何图形;
10)眼间距离:两个外眼角之间的距离,用于估计距屏幕的距离;
11)头部方向:头部旋转为偏向(上/下),俯仰(左/右)和滚动;
12)集成化品质保证工具;
3.EEG 脑电模块(可选)
可与多种主流便携式脑电图(EEG)结合使用
可接入原始信号和自动分析工具;
电池电量,信号强度和阻抗可视化
集成化品质保证工具;
4.ECG心电模块(可选)
可与ECG传感器或一系列生物采集传感器兼容使用。
采集,可视化和导出与心血管活动有关的原始心电图(ECG)信号;
电池电量和信号强度可视化;
集成化品质保证工具;;
5.眼动追踪模块-三选一(可选)
桌面式
移动
VR
借助基于软件平台屏幕的眼动跟踪模块,您可以使用Tobii,EyeTech,SmartEye,SMI和Gazepoint等硬件提供商提供研究级跟踪器,在受控实验室环境中收集和分析数据。
使用热图,注视回放以及关注区域(AOI)输出度量等工具进行分析,例如注视时间和花费的时间;
还提供了自动注视映射技术,该技术将动态环境中的注视转换为静态场景,以简化汇总和分析;
四、应用
1.消费者行为/神经营销:
可以准确、定量地编码和描述消费者的行为和情绪反应。
消费者偏好
产品测试
广告
2. 心理学/教育:
生物传感器使人类行为在几乎任何情况下都可测量
神经
心理生理反应
智能学习
3. 医疗
多模式研究与来自多个生物传感器的同步数据,使整个行业能够更快、更实际的结果,从医疗人员培训到患者互动和护理,到产品研发和营销,到临床试验
医患互动
神经病学研究
神经问题
4. VR和模拟
收集有关人们在VR模拟场景中的行为和反应的数据可以解锁在可能不切实际、危险甚至不可能执行的情况下的见解
虚拟商店布局
游戏设计
VR环境
5. 可用性测试
的用户体验来自似乎真正了解其用户的产品,UX 和 UI 研究人员通常缺乏在移动、应用中、网站上和游戏中捕捉用户互动完整状态的工具。通过多模式可在整个开发阶段进行有效率和迭次测试,从而带来更好的可用性数据和以用户为中心的设计。
用户界面
UX,网站,应用程序
人机交互
6.工程/产品
将生物传感器作为研发策略的一部分,可在整个产品生命周期内实现更快、更实际的结果。在新产品的早期概念阶段,可以采用眼动追踪和面部表情分析等方法,以便对可用性和人体工程学进行初步见解,或在原型设计、产品测试和头脑风暴阶段进行初步见解。研究人类行为甚至可以应用于机器接口、软件测试、脑-计算机接口或人-机器人交互,以理解或尽量减少人为错误。
工程设计
软件与机器接口
研发
五、应用客户