中标
虚拟眼动仪
虚拟眼动仪云平台实验设计模块VR实验设计屏幕录制可阅读式文件多媒体刺激3D虚拟现实场景场景摄像头第三方实验设计同步模块VR三维模型虚拟现实头盔虚拟现实开发引擎数据同步接口实验设计系统自定义绘制云服务器支持数据批量处理云端被试库管理基于实验室环境VR虚拟现实真实的现场环境研究人机环境测试云平台团体测试模块跨平台实验设计模块交互测试PC终端VR终端交互显示与测试移动终端原型设计可穿戴头盔人交互设备交互行为测试主观测试实验设计NASA-TLX认知负荷量表PANAS情绪效价量表Stroop任务MOT多目标追踪反向眼跳基于主客观评价的实验设计基于客观测试交叉分析客观定量化测试模块交叉统计可视化分析基于主观测试交叉分析主观测试模块多维度数据的对比分析可视化统计注意力训练客观测试实验设计多任务并行设计刺激呈现随机性设置组间-组内及混合试验设计刺激材料AOI兴趣区智能识别内嵌浏览器虚拟现实定量分析结合人机环境多模态数据眼动追踪系统沉浸式VR眼动研究3D视线追踪虚拟现实视线交互单元虚拟现实人机环境同步平台cluster集群功能眼动追踪传感器虚拟现实眼动分析系统对可视化的多重控制VR时空行为路径时空行为研究AOI眼动分析眼动加工实时空间定位数据交互统计眼动追踪测量空间位置数据Unity中的交互功能ErgoLABVR交互数据分析空间定位数据分析空间位置与视觉加工交互操作
金额
16.98万元
项目地址
江苏省
发布时间
2020/05/19
公告摘要
项目编号cb102902020000033
预算金额16.98万元
招标公司-
招标联系人-
中标联系人-
公告正文

基本信息
申购单号:CB102902020000033
成交总额:169800
申购主题:虚拟眼动仪
送货时间:合同签订后30天内送达
采购单位:中国矿业大学
安装要求:免费上门安装(含材料费)
竞价开始时间:2020-05-14
收货地址:******
竞价截至时间:2020-05-19
币种:人民币
付款方式:货到验收合格后付款
质疑说明:如果对成交结果有异议,请在发布成交结果之日起三个工作日内向采购单位提出质疑
竞价结果:
1
采购项:虚拟眼动仪
数量:1套
品牌:ErgoVR
型号:V1.0-ErgoLAB
单项预算:0.00
成交总价:169800.00
成交单价:169800.00
成交供应商:北京津发科技股份有限公司
技术参数:一、视线交互测试云平台系统功能:
1、系统基于云平台架构进行眼动追踪实验设计与测试、分析,支持一对多的群体眼动追踪与可用性测试实验。
★2、可支持不少于255个测试端口同步进行眼动追踪与可用性测试实验。
3、云平台通讯方式:支持UDP、Web Socket。
4、云项目管理模块:包含管理项目名称、记录名称、被试姓名、记录持续时间、记录时间等,自定义添加被试属性,如姓名、性别、职业、参与实验组别等信息,支持多维度的数据筛选。
★5、云平台实验设计模块,基于云服务器进行实验设计,并可以分发到任意或全部测试终端进行实验。
★6、投标产品软件提供中英文双语版本,需与原实验室人机环境同步平台等设备在同一个界面上进行数据同步采集与分析,投标产品须提供视线交互系统自主知识产权证明文件。
二、VR实验设计云平台
★1、云平台实验设计模块,基于云服务器进行实验设计,并可以分发到任意或全部测试终端进行实验。
2、有不少于五大类材料刺激类型可供选择,分别为:屏幕录制、可阅读式文件、多媒体刺激、3D虚拟现实场景、场景摄像头、第三方实验设计同步模块等。且实验设计刺激材料类型为三维虚拟场景时,支持360度全景图片、360度全景视频、VR三维模型,并可通过虚拟现实头盔进行预览并进行VR眼动数据预览。
3、支持虚拟现实开发引擎数据同步接口:
★支持使用Unity3D、UE4、WorldViz Vizard、SCANeR、Ansys VRXperience等VR开发平台制作的产品原型,均可通过ErgoVR plugin数据同步接口进行实时数据通讯,便捷地导入实验设计系统进行交互行为分析,系统自动计算与识别所有模型。
4、支持智能识别VR AOI兴趣区与自定义绘制
系统自动计算并识别所有原型组件信息,用户通过点选即可将其指定为兴趣区区域;同时,支持用户自定义绘制任何形状和位置的兴趣区。实验设计阶段与结果回放阶段均可进行设置,进一步实现数据的自动分析与统计。
5、云平台实验设计模块,基于云服务器的实验设计:可以分发到任意或全部测试终端进行单人或群体实验,支持数据批量处理,云端被试库管理。涵盖多种研究环境的实验设计:基于实验室环境、移动终端环境、VR虚拟现实以及真实的现场环境研究。,该系统结合人机环境测试云平台可以实现各测试终端的多模态数据同步采集并上传到云服务器。
6、团体测试模块,系统基于云平台架构进行人-机-环境测试,支持一对多的群体人-机-环境测试实验,使用多套硬件的情况下可支持不少于255个测试端口同步进行团体人机环境测试实验。
(一)、跨平台实验设计模块
1、支持跨平台的实验设计并适合多类型信息产品的人机交互与用户体验测试:
系统能够被用于基于任意类型信息交互界面,如大屏幕、移动终端、虚拟仿真等多类型信息化终端设备载体,以及桌面端PC应用程序和WEB网页程序与原型,移动终端APP应用程序与原型,虚拟现实VR应用程序与原型的可用性测试。
支持跨平台的实验设计与多类型终端交互测试,含PC终端、移动终端、VR终端多终端交互显示与测试:PC终端实验设计模块刺激呈现类型支持自定义,可在同一项目中设置一个或多个时间轴,原型、网页、图片、文字、视频等多种刺激材料可并存于同一时间轴;移动终端原型设计,用户可自定义设置移动端产品的顶图、主体图片和底图,并设置呈现方向;VR实验设计模块刺激呈现类型支持自定义,可导入全景图片、全景视频,以及max、fbx、obj等任意格式的3D模型,使用ErgoVR PLUGIN嵌入式数据同步接口可在刺激材料上直接指定兴趣区及物体,记录完整交互数据。支持可穿戴头盔VR、沉浸式CAVE及人交互设备开展实验。
2、支持原型设计软件数据同步接口:
★支持使用Mockplus、MockingBot、JustinMind、Axure等制作的产品原型,均可通过生成网页链接的方式,一键导入实验设计系统进行交互行为测试,系统自动自动计算与识别所有组件信息。
(二)、主观测试实验设计模块:
★可自定义问卷、量表与实验范式,系统包含常用量表与实验范式以及数据常模,如NASA-TLX认知负荷量表、PANAS情绪效价量表、Stroop任务、MOT多目标追踪、Mix-antisscade反向眼跳任务等,结果可直接用于被试属性筛选。基于主客观评价的实验设计具体要求如下:
1、基于客观测试交叉分析:通过实验设计中的客观定量化测试模块,系统中的眼动数据;生理数据;行为编码数据等数据,进行交叉统计与可视化分析。
2、基于主观测试交叉分析:通过实验设计中的主观测试模块,用户可实现基于被试作答的问卷、量表、范式的测试结果(如疲劳程度、焦虑水平、情绪效价、反应时等)进行被试筛选与数据选择,进行多维度数据的对比分析与可视化统计。
3、系统包含大量常用量表与实验范式以及数据常模,如NASA-TLX认知负荷量表、PANAS情绪效价量表、Stroop任务、MOT多目标追踪、Mix-Antisscade注意力训练任务等。
(三)、客观测试实验设计模块:
★1、多时间轴、多任务并行设计:系统支持同时创建多个时间轴,多个实验任务,满足在同一个项目下进行多课题管理或多实验任务同时进行,以及基于云服务器的群体实测。
2、刺激呈现随机性设置:支持刺激材料的顺序呈现、随机呈现、自定义顺序以及组别Group随机呈现等方式,满足各种试验目的。
3、组间-组内及混合试验设计:通过创建不同刺激材料Group组别及呈现方式、自定义刺激材料在不同被试进行实验中是否参与记录、或选择不同时间轴任务实现组间-组内及混合设计类型。
★4、支持多种类型刺激材料:可导入原型、网页、图片、视频、文本等类型刺激材料,并可根据实验需求进行显示属性设置。
5、广泛的刺激材料来源:支持本地和网络云端的刺激材料导入,实时查看材料内容,并保留刺激材料本身的内容完整性和交互完整性。
★6、AOI兴趣区智能识别:自动识别刺激材料源代码中的内容区域,通过鼠标点击的便捷操作即可拾取为目标兴趣区;可在刺激材料界面任意位置、任意时刻绘制任意形状的兴趣区。
★7、内嵌浏览器:产品原型、网页等刺激材料可在设计平台软件内嵌浏览器中实时浏览,方便用户对交互性刺激材料的查看和实验设计。
(四)、虚拟现实定量分析平台
实现在VR虚拟环境中采集、分析和可视化视觉信息,对个体的注意力、VR时空行为轨迹数据和交互行为进行全方面分析。揭示个体在与物体和环境交互时或行为背后的潜意识反应,同时充分利用了虚拟世界的真实感、受控性和灵活性。根据研究需求,可以创建任何环境,同时控制参与者接触特定视觉刺激的方式和时间。结合人机环境多模态数据可以实时了解您的视觉刺激是如何触发特定的情绪与行为反应。将眼动追踪系统与沉浸式VR相结合,允许研究人员在完全受控的3D虚拟环境中开展眼动研究,同时支持使用360°视频和图片作为刺激材料,可重复利用研究场景和刺激物,同时保持眼动数据的采集、呈现、处理与分析。
★1、集成于虚拟现实头盔内的3D视线追踪与虚拟现实视线交互单元,提供虚拟现实人机环境同步平台数据同步接口可以实时同步采集虚拟现实中的视线交互与眼动追踪数据。
2、支持cluster集群功能,同时调配同步多台主机渲染。
3、支持多用户交互,
★4、可支持两人以上在同一个三维场景进行实验,将来可以扩展更多的头戴式系统,
★5、采样频率 ≥双眼120 Hz
6、追踪模式:暗瞳孔追踪
7、准确度:≤0.5度
8、红外光源数量:≥每只眼睛10个
9、追踪方式:双眼追踪
★10、测量方式:支持瞳孔测量
11、眼动追踪范围:≥110度(与虚拟现实头盔视野范围相同)
12、校准程序:5点
13、眼动追踪传感器:≥每只眼睛1个
14、视差补偿:自动,通过3D眼动追踪算法
★15、滑移(Slippage)补偿: 通过 3D 眼动追踪算法
★16、软件集成:WorldViz、Unity3D、ErgoLAB
17、程序接口:SDK (C#/C++/Matlab/Python/.Net)
18、数据输出:时间戳、视线坐标、视线方向、瞳孔位置、瞳孔相对尺寸。
19、由于本次采购用于科研用途,投标品牌要求提供不少于50篇论文支持
20、分析功能:
1)、虚拟现实眼动分析系统:包含眼动数据处理、眼动状态分析、AOI与可视化分析以及个体的导航与交互数据,全方位揭示在虚拟环境下的视觉加工情况与行为反应。
2)、即时访问操作数据:可以实时观察操作者的眼动注视点,完成项目中录制后,可一键分析眼动跟踪指标、交互测量和可视化等客观数据。这些直观且可操作的输出可以对潜意识反应和行为进行定性和定量分析。
3)、从多个角度理解行为:您可以选择从第一人称或第三人称视角播放数据采集内容,获取多个摄像机视图,支持使用画中画(PIP)双重播放视图。ErgoLAB VR还允许您同时回放多个参与者记录,从而揭示参与者之间的行为差异。
4)、对可视化的多重控制:将环境中的所有对象生成可视化数据,可以针对单个或多个参与者进行数据查看,包括:热点图、轨迹图等,显示不同对象之间的注意力分布情况;
5)、系统以3D形式显示人物对目标的视线,帮助您更加直观的理解操作者的注意力焦点情况;
6)、每个参与者的VR时空行为路径采用不同颜色编码,以显示参与者在VR环境中的行走轨迹,可用于时空行为研究等运动数据的分析。
7)、VR环境中的AOI眼动分析:自动计算针对虚拟环境中特定物体的眼动加工数据,可应用于全部物体。指标包括:注视次数、注视时间、首次注视时间、访问次数、访问刺激百分比等。所有眼动追踪和整合统计数据都可以在软件中实时获得。
8)、实时空间定位数据(时空行为)与交互统计:系统实时获取参与者在虚拟空间中的位置数据,并进行统计分析。基于眼动追踪测量、空间位置数据以及Unity中的交互功能,ErgoLAB VR允许进行充分的交互数据分析,包括:个体在某一区域内的空间定位数据分析(如首次进入该区域的时间、总的访问时间、平均访问时间、第二次进入该区域的时间等);空间位置与视觉加工的交互统计(如第一次进入空间区域首次注视到AOI物体的时间、进入空间区域内的总注视时间、空间区域内对某个物体的注视次数等);空间位置、视觉加工与交互操作的数据交互统计(如在空间区域内,对AOI物体进行拿起等交互行为时的首次注视时间等);以及不同物体之间的交互统计、不同空间位置的交互统计等。

质保及售后服务:中标商须提供原厂售后服务。
返回顶部