簡要描述:產(chǎn)品概述:ErgoAI® 眼動追蹤實訓平臺,聚焦人機交互、智能駕駛、虛擬現(xiàn)實(VR/AR)、智能設計等新興領域。平臺依托高精度眼動追蹤技術(shù),結(jié)合人工智能與計算機視覺算法,實現(xiàn)對眼動軌跡、注視焦點、視覺注意力分布等數(shù)據(jù)的精準采集與深度分析。通過搭建從基礎數(shù)據(jù)采集、算法開發(fā)到智能交互系統(tǒng)設計的完整技術(shù)鏈條,助力學生掌握眼動追蹤核心技術(shù)、開發(fā)智能交互應用,深度參與未來產(chǎn)業(yè)中智能設備優(yōu)化、人機協(xié)同系統(tǒng)

產(chǎn)品中心
詳細介紹
| 品牌 | 其他品牌 | 產(chǎn)地 | 國產(chǎn) |
|---|---|---|---|
| 控制形式 | 普通 |
l 全鏈路貫通,一體化教學閉環(huán):打破傳統(tǒng)教學環(huán)節(jié)割裂的壁壘,將眼動數(shù)據(jù)采集、模型訓練、部署及眼動交互控制應用四大核心環(huán)節(jié)深度整合。學生可在同一平臺上完成從原始眼動數(shù)據(jù)獲取實際交互應用開發(fā)的完整流程,直觀地掌握眼動追蹤技術(shù)的全生命周期開發(fā)邏輯。
l 高精度數(shù)據(jù)采集,多元場景適配:配備先進的眼動儀硬件設備,可實時采集眼動速度、注視時長、掃視路徑等多維度數(shù)據(jù)。同時,系統(tǒng)適配多種復雜場景,無論是模擬智能駕駛艙環(huán)境下的視覺注意力分析,還是虛擬現(xiàn)實交互 動行為捕捉,均可穩(wěn)定高效地完成數(shù)據(jù)采集任務。
l 智能模型訓練,低門檻高效開發(fā):內(nèi)置豐富的人工智能算法庫,涵蓋深度學習、機器學習等主流模型框架,支持學生基于采集的眼動數(shù)據(jù)快速構(gòu)建個性化分析模型。
l 項目化教學支持,實訓成果可視化:配套豐富的教學案例與項目化實訓資源,通過可視化數(shù)據(jù)報表與交互演示,直觀展示眼動交互控制應用效果,有效提升教學質(zhì)量與學生實踐能力。
ErgoLAB眼動追蹤實訓設備,包括桌面端高精度、桌面端遙測式、移動端遙測式、智能穿戴眼鏡式以及虛擬現(xiàn)實集成式,適配不同的教學與應用場景。
設備名稱 | 設備介紹 |
移動端遙測式眼動儀 | Tobii Pro Nano 一款小巧輕便的研究級眼動儀,專為移動設備小屏幕而設計,適用于移動終端屏幕刺激和多樣化場景中的精準眼動交互行為實訓教學。 |
智能穿戴式眼動儀 | Tobii Pro Glasses 3 是一款專為現(xiàn)實環(huán)境設計的可穿戴眼動追蹤設備,其超輕且堅固的非侵入式鏡框集成了16個照明器和四眼攝像頭,是高精度、可選鏡片度數(shù)的、160°視野的場景攝像機。 |
桌面端遙測式眼動儀 | Tobii Pro Fusion高性能便攜遙測式眼動儀,以高達250Hz的采樣率精準捕捉眼動數(shù)據(jù),適用于多種視覺刺激環(huán)境,這款基于屏幕的強大研究工具適用于對注視和眼跳等眼動行為的廣泛研究。 |
高精度組合式眼動儀 | Tobii Pro Spectrum 一款基于屏幕的高性能眼動儀,以高達1200Hz的速度捕獲凝視數(shù)據(jù),適用于從注視到微掃視等多種眼動行為的實訓教學。 |
VR虛擬現(xiàn)實眼動儀 | 為滿足嚴謹專業(yè)的商業(yè)客戶而生。運用Tobii®眼動追蹤技術(shù),優(yōu)化仿真、識別和計算過程,使您能夠從用戶視角洞察場景畫面,并據(jù)此采取相應的行動。 |
車載駕駛集成式眼動儀 | Smart Eye Pro專為實車駕駛和駕駛艙模擬環(huán)境設計,提供高精度和寬視角的眼動追蹤能力,允許頭部的自由移動。廣泛應用于汽車駕駛行為分析、飛行模擬訓練以及主控室多屏幕狀態(tài)監(jiān)控等研究領域,是現(xiàn)場實訓教學的理想選擇。 |
眼動邊緣計算終端 | 搭載眼動儀邊緣計算終端和智能算法模型,基于眼動數(shù)據(jù)對人員狀態(tài)進行實時預測,同時可以結(jié)合眼動交互智能模型,靈活配置控制外設,滿足多樣化實訓教學場景 |
l 眼動數(shù)據(jù)處理算法:基于I-VT算法提取注視點、眨眼及眼跳狀態(tài);支持自定義設置處理參數(shù)。
l 眼動點自動映射與可視化:本地Gaze Mapping自動疊加以及手動coding;支持注視點X、Y坐標、角速度、左右眼瞳孔數(shù)據(jù)的Chart可視化以及熱點圖、軌跡圖、3D圖、蜂窩圖、彩虹圖、透視圖等可視化分析。
l 眼動數(shù)據(jù)自定義分析:支持基于2D刺激材料、APP長圖、以及360°圖片/視頻或3D虛擬場景分析,實時監(jiān)測個體在任何環(huán)境刺激中的注意力和行為模式,輸出實時眼動注視點數(shù)據(jù)。
l 眼動數(shù)據(jù)綜合統(tǒng)計與導出:支持眼動AOI和Gaze眼動點數(shù)據(jù)指標統(tǒng)計,提供≥25種反映注意特征的數(shù)據(jù);支持以Excel或CSV格式導出所有原始數(shù)據(jù)、處理數(shù)據(jù)、分析數(shù)據(jù)。支持對個體眼動數(shù)據(jù)進行交叉行為分析、延遲行為分析、編碼分析、時域分析、峰值檢測分析,并提供可視化圖表,支持連續(xù)眼動數(shù)據(jù)轉(zhuǎn)行為數(shù)據(jù)。
l 數(shù)據(jù)采集可視化、特征工程、智能模型訓練、算法與模型資源
n 項目與數(shù)據(jù)集創(chuàng)建:根據(jù)實訓需求自定義創(chuàng)建項目與Eye眼動數(shù)據(jù)集、自動配置數(shù)據(jù)預處理算法
n 特征工程與模型訓練:支持特征工程集合構(gòu)建、智能模型定義訓練全流程
n AI算法與模型案例中心:AI算法教學案例中心、AI模型教學案例中
l 感知與控制,搭載眼動儀邊緣計算終端,靈活配置控制外設,滿足多樣化實訓教學場景,可自定義其他設備,需提供Python SDK、API
l 智能終端設備:適配平板電腦、智能電視、智能投影等設備,學生可通過眼動完成界面翻頁、圖標點擊、信息查詢等操作,探索智能終端的新型交互方式。
l 模擬實訓設備:在新工科教學場景中,可對接模擬駕駛艙設備,學生通過眼動控制模擬車輛的儀表盤查看、導航系統(tǒng)操作;也能控制模擬工業(yè)機器人,實現(xiàn)機械臂運動軌跡規(guī)劃、零部件抓取等操作,強化在智能制造領域的實訓效果。
l 虛擬現(xiàn)實與增強現(xiàn)實設備:無縫連接 VR 頭盔、AR 眼鏡等設備,在虛擬現(xiàn)實環(huán)境中,學生可通過眼動控制虛擬角色移動、物體選擇與交互,沉浸式體驗眼動追蹤技術(shù)在 VR/AR 游戲開發(fā)、虛擬設計等場景的應用;還能在增強現(xiàn)實場景中,利用眼動操作疊加在現(xiàn)實世界的虛擬信息與模型。
整體概述
ErgoLAB人機環(huán)境同步平臺采用多模態(tài)數(shù)據(jù)時鐘同步技術(shù),平臺可完成完整的實驗和測評流程,包括項目管理-試驗設計-同步采集-信號處理-數(shù)據(jù)分析-人因智能評估-可視化報告,支持基于云架構(gòu)技術(shù)的團體測試和大數(shù)據(jù)管理。
ErgoLAB人機環(huán)境同步平臺采用主客觀結(jié)合多模態(tài)數(shù)據(jù)同步采集與多維度驗證的方法,數(shù)據(jù)實時同步種類包含大腦認知數(shù)據(jù)(EEG/BCI腦電儀與腦機接口邊緣計算設備、fNIRS/BCI近紅外腦成像儀),視覺數(shù)據(jù)(Eyetracker眼動儀與視線交互系統(tǒng)),生理數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動作與面部表情(基本情緒、情緒效價、微表情等)數(shù)據(jù)、生物力學數(shù)據(jù)(拉力、握力、捏力、壓力…),人機交互數(shù)據(jù)(包含人機界面交互行為數(shù)據(jù)以及對應的鍵盤操作,鼠標點擊、懸浮、劃入劃出等;移動終端人機交互行為數(shù)據(jù)以及對應的手指軌跡操作行為如點擊、縮放、滑動等;VR終端界面人機交互行為數(shù)據(jù)及對應的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時空行為軌跡數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時空的行走軌跡、行車軌跡、訪問狀態(tài)以及視線交互、情感反應、交互操作行為等數(shù)據(jù)實時同步采集)、以及作業(yè)空間及作業(yè)環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù);為科學研究及應用提供完整的數(shù)據(jù)指標。

將人工智能技術(shù)引入人因工程研究工具,人因工程行業(yè)更加深度,使得實驗環(huán)境不會受限于某一種設備或數(shù)據(jù)指標,采集分析不同典型行業(yè)或?qū)W科專業(yè)的人-機-環(huán)境系統(tǒng)交互過程中自然狀態(tài)下的人類行為數(shù)據(jù),獲取更接近真實人員狀態(tài)的數(shù)據(jù)。平臺還提供覆蓋科研實驗全流程的功能模塊,包括項目管理、實驗設計、同步采集、數(shù)據(jù)分析、綜合統(tǒng)計和可視化報告,結(jié)合ErgoAI人因智能邊緣計算平臺為多模態(tài)人機環(huán)境研究提供一站式人因工程+人工智能解決方案。以ErgoLAB人機環(huán)境同步平臺和ErgoAI人因智能邊緣計算平臺為核心的多模態(tài)同步人因智能解決方案大大提高了實驗結(jié)果的信效度,同時節(jié)省了研究的人力、物力、時間,提高了研究與測評的整體效率。

基于ErgoAI人因智能多元時序算法底座與人因工程人機環(huán)境數(shù)據(jù)庫,構(gòu)建人員特定狀態(tài)的預訓練模型,配合高靈活度的訓練方案管理功能,用戶能夠在統(tǒng)一環(huán)境中高效構(gòu)建和優(yōu)化模型。 從而實現(xiàn)對人員狀態(tài)的精準實時評估與預警,如負荷狀態(tài)、應激狀態(tài)、疲勞狀態(tài)、情景意識和注意能力等。

Kingfar公司介紹:
北京津發(fā)科技股份有限公司(津發(fā)科技)是專精特新“小巨人" ,新一輪第一批專精特新重點“小巨人"、知識產(chǎn)權(quán)優(yōu)勢企業(yè)、高新技術(shù)企業(yè)、科技型中小企業(yè);旗下包含北京人因智能工程技術(shù)研究院和北京人因工程設計院有限公司等新型科技研發(fā)機構(gòu),并聯(lián)合共建了北京市企業(yè)技術(shù)中心、北京本科高校產(chǎn)學研深度協(xié)同育人平臺、蘇州市重點實驗室、湖南省工程實驗室、山東省工程研究中心等多個科技創(chuàng)新平臺。
津發(fā)科技承擔和參與了多項國家重點研發(fā)計劃、工信部高質(zhì)量發(fā)展專項、國家自然科學基金等課題基金項目。擔任全國信標委XR擴展現(xiàn)實標準化工作組副組長單位,工信部元宇宙標準化工作組關鍵技術(shù)組聯(lián)合組長單位;主持和參編國際、國家、行業(yè)和團體標準30余項。
津發(fā)科技創(chuàng)新研發(fā)了國產(chǎn)化自主可控的人因工程與人因智能邊緣計算系列信創(chuàng)產(chǎn)品與技術(shù);通過了歐洲CE、美國FCC、歐盟ROHS,以及ISO9001、ISO14001、ISO45001等多項國際認證。累計榮獲30余項省部級新技術(shù)新產(chǎn)品認證和多項省部級科學技術(shù)獎勵;全球申請發(fā)明磚利超過530項,已授權(quán)120余項國際和國家發(fā)明磚利、150余項國際和國家注冊商標、130余項國家軟件著作權(quán);已服務全國高等院校和裝備科技工業(yè)科研院所應用示范,并已支撐科研學者和科技工作者發(fā)表中英文學術(shù)論文超過1100篇。
郵件聯(lián)系我們:sales@kingfar.cn
掃一掃,關注微信
電話
微信掃一掃