簡要描述:ErgoAI®眼動追蹤平臺面向人機(jī)交互、智能駕駛、虛擬現(xiàn)實、可用性測試及認(rèn)知研究等領(lǐng)域,提供高精度眼動數(shù)據(jù)采集、分析與智能應(yīng)用的全鏈路研究支持。平臺依托先進(jìn)的眼動儀硬件與人工智能技術(shù),實現(xiàn)對注視行為、視覺注意力分配及眼動-行為關(guān)聯(lián)的精準(zhǔn)捕捉與深度挖掘,為用戶體驗優(yōu)化、交互系統(tǒng)設(shè)計、駕駛安全研究等提供數(shù)據(jù)驅(qū)動的研究工具與解決方案。

產(chǎn)品中心
詳細(xì)介紹
| 品牌 | 其他品牌 | 產(chǎn)地 | 國產(chǎn) |
|---|
l 全流程一體化研究支持:集成眼動數(shù)據(jù)采集、信號處理、模型訓(xùn)練與交互控制應(yīng)用,支持從原始數(shù)據(jù)到智能系統(tǒng)開發(fā)的完整科研閉環(huán)。
l 高精度多場景眼動感知能力:配備桌面式、遙測式、穿戴式及VR集成式眼動儀,支持實驗室、自然場景及虛擬環(huán)境下的眼動數(shù)據(jù)采集,具備高采樣率與空間精度。
l 智能數(shù)據(jù)處理與模型開發(fā)環(huán)境:內(nèi)置眼動信號處理算法(如I-VT濾波、注視點(diǎn)提取)及機(jī)器學(xué)習(xí)/深度學(xué)習(xí)框架,支持特征工程、模型訓(xùn)練與個性化分析流程構(gòu)建。
l 多維度可視化與深度分析功能:提供熱點(diǎn)圖、軌跡圖、3D注意力分布等多類可視化工具,支持AOI分析、時序統(tǒng)計、行為編碼及交叉模態(tài)數(shù)據(jù)分析,并可導(dǎo)出多格式原始與處理數(shù)據(jù)。
l 開放架構(gòu)與系統(tǒng)集成支持:支持Python SDK/API接入,可對接駕駛模擬器、VR/AR設(shè)備、機(jī)器人系統(tǒng)等外部平臺,實現(xiàn)眼動控制與交互驗證。
ErgoLAB眼動追蹤實驗設(shè)備,包括桌面端高精度、桌面端遙測式、移動端遙測式、智能穿戴眼鏡式以及虛擬現(xiàn)實集成式,適配不同的研究與應(yīng)用場景。
設(shè)備名稱 | 設(shè)備介紹 |
移動端遙測式眼動儀 | Tobii Pro Nano 一款小巧輕便的研究級眼動儀,專為移動設(shè)備小屏幕而設(shè)計,適用于移動終端屏幕刺激和多樣化場景中的精準(zhǔn)眼動交互行為研究。 |
智能穿戴式眼動儀 | Tobii Pro Glasses 3 是一款專為現(xiàn)實環(huán)境設(shè)計的可穿戴眼動追蹤設(shè)備,其超輕且堅固的非侵入式鏡框集成了16個照明器和四眼攝像頭,是高精度、可選鏡片度數(shù)的、160°視野的場景攝像機(jī)。 |
桌面端遙測式眼動儀 | Tobii Pro Fusion高性能便攜遙測式眼動儀,以高達(dá)250Hz的采樣率精準(zhǔn)捕捉眼動數(shù)據(jù),適用于多種視覺刺激環(huán)境,這款基于屏幕的強(qiáng)大研究工具適用于對注視和眼跳等眼動行為的廣泛研究。 |
高精度組合式眼動儀 | Tobii Pro Spectrum 一款基于屏幕的高性能眼動儀,以高達(dá)1200Hz的速度捕獲凝視數(shù)據(jù),適用于從注視到微掃視等多種眼動行為的精細(xì)研究。 |
VR虛擬現(xiàn)實眼動儀 | 為滿足嚴(yán)謹(jǐn)專業(yè)的商業(yè)客戶而生。運(yùn)用Tobii®眼動追蹤技術(shù),優(yōu)化仿真、識別和計算過程,使您能夠從用戶視角洞察場景畫面,并據(jù)此采取相應(yīng)的行動。 |
車載駕駛集成式眼動儀 | Smart Eye Pro專為實車駕駛和駕駛艙模擬環(huán)境設(shè)計,提供高精度和寬視角的眼動追蹤能力,允許頭部的自由移動。廣泛應(yīng)用于汽車駕駛行為分析、飛行模擬訓(xùn)練以及主控室多屏幕狀態(tài)監(jiān)控等研究領(lǐng)域,是現(xiàn)場應(yīng)用與實驗室研究的理想選擇。 |
眼動邊緣計算終端 | 搭載眼動儀邊緣計算終端和智能算法模型,基于眼動數(shù)據(jù)對人員狀態(tài)進(jìn)行實時預(yù)測,同時可以結(jié)合眼動交互智能模型,靈活配置控制外設(shè),滿足多樣化科研與應(yīng)用場景 |
l 眼動數(shù)據(jù)處理算法:基于I-VT算法提取注視點(diǎn)、眨眼及眼跳狀態(tài);支持自定義設(shè)置處理參數(shù)。
l 眼動點(diǎn)自動映射與可視化:本地Gaze Mapping自動疊加以及手動coding;支持注視點(diǎn)X、Y坐標(biāo)、角速度、左右眼瞳孔數(shù)據(jù)的Chart可視化以及熱點(diǎn)圖、軌跡圖、3D圖、蜂窩圖、彩虹圖、透視圖等可視化分析。
l 眼動數(shù)據(jù)自定義分析:支持基于2D刺激材料、APP長圖、以及360°圖片/視頻或3D虛擬場景分析,實時監(jiān)測個體在任何環(huán)境刺激中的注意力和行為模式,輸出實時眼動注視點(diǎn)數(shù)據(jù)。
l 眼動數(shù)據(jù)綜合統(tǒng)計與導(dǎo)出:支持眼動AOI和Gaze眼動點(diǎn)數(shù)據(jù)指標(biāo)統(tǒng)計,提供≥25種反映注意特征的數(shù)據(jù);支持以Excel或CSV格式導(dǎo)出所有原始數(shù)據(jù)、處理數(shù)據(jù)、分析數(shù)據(jù)。支持對個體眼動數(shù)據(jù)進(jìn)行交叉行為分析、延遲行為分析、編碼分析、時域分析、峰值檢測分析,并提供可視化圖表,支持連續(xù)眼動數(shù)據(jù)轉(zhuǎn)行為數(shù)據(jù)。
l 數(shù)據(jù)采集可視化、特征工程、智能模型訓(xùn)練、算法與模型資源
n 項目與數(shù)據(jù)集創(chuàng)建:自定義創(chuàng)建項目與Eye眼動數(shù)據(jù)集、自動配置數(shù)據(jù)預(yù)處理算法
n 特征工程與模型訓(xùn)練:支持特征工程集合構(gòu)建、智能模型定義訓(xùn)練全流程
n AI算法與模型中心:AI算法中心、AI模型資源
l 感知與控制,搭載眼動儀邊緣計算終端,靈活配置控制外設(shè),滿足多樣化科研與應(yīng)用場景,可自定義其他設(shè)備,需提供Python SDK、API
l 人機(jī)交互與用戶體驗研究:基于眼動數(shù)據(jù)優(yōu)化界面設(shè)計、交互流程與信息布局,提升數(shù)字產(chǎn)品、智能終端及AR/VR系統(tǒng)的可用性與用戶體驗。
l 智能駕駛與交通行為分析:開展駕駛員注意力分配、疲勞狀態(tài)、危險感知研究,支持輔助駕駛系統(tǒng)設(shè)計、座艙交互優(yōu)化與交通安全評估。
l 虛擬現(xiàn)實與仿真系統(tǒng)開發(fā):支持VR/AR環(huán)境中的視覺行為分析、注視點(diǎn)交互設(shè)計與虛擬角色控制,推動沉浸式技術(shù)在教育、訓(xùn)練與娛樂領(lǐng)域的應(yīng)用。
l 認(rèn)知科學(xué)研究與神經(jīng)工效評估:通過眼動行為分析認(rèn)知負(fù)荷、決策過程與視覺搜索策略,支持工效學(xué)測評、廣告效果評估及學(xué)術(shù)研究。
l 醫(yī)療與無障礙技術(shù)研發(fā):開展眼動交互在輔助通信、神經(jīng)康復(fù)及無障礙設(shè)備中的應(yīng)用研究,支持漸凍癥、脊髓損傷等用戶群體的技術(shù)解決方案。
整體概述
ErgoLAB人機(jī)環(huán)境同步平臺采用多模態(tài)數(shù)據(jù)時鐘同步技術(shù),平臺可完成完整的實驗和測評流程,包括項目管理-試驗設(shè)計-同步采集-信號處理-數(shù)據(jù)分析-人因智能評估-可視化報告,支持基于云架構(gòu)技術(shù)的團(tuán)體測試和大數(shù)據(jù)管理。
ErgoLAB人機(jī)環(huán)境同步平臺采用主客觀結(jié)合多模態(tài)數(shù)據(jù)同步采集與多維度驗證的方法,數(shù)據(jù)實時同步種類包含大腦認(rèn)知數(shù)據(jù)(EEG/BCI腦電儀與腦機(jī)接口邊緣計算設(shè)備、fNIRS/BCI近紅外腦成像儀),視覺數(shù)據(jù)(Eyetracker眼動儀與視線交互系統(tǒng)),生理數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動作與面部表情(基本情緒、情緒效價、微表情等)數(shù)據(jù)、生物力學(xué)數(shù)據(jù)(拉力、握力、捏力、壓力…),人機(jī)交互數(shù)據(jù)(包含人機(jī)界面交互行為數(shù)據(jù)以及對應(yīng)的鍵盤操作,鼠標(biāo)點(diǎn)擊、懸浮、劃入劃出等;移動終端人機(jī)交互行為數(shù)據(jù)以及對應(yīng)的手指軌跡操作行為如點(diǎn)擊、縮放、滑動等;VR終端界面人機(jī)交互行為數(shù)據(jù)及對應(yīng)的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時空行為軌跡數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時空的行走軌跡、行車軌跡、訪問狀態(tài)以及視線交互、情感反應(yīng)、交互操作行為等數(shù)據(jù)實時同步采集)、以及作業(yè)空間及作業(yè)環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù);為科學(xué)研究及應(yīng)用提供完整的數(shù)據(jù)指標(biāo)。

將人工智能技術(shù)引入人因工程研究工具,人因工程行業(yè)更加深度,使得實驗環(huán)境不會受限于某一種設(shè)備或數(shù)據(jù)指標(biāo),采集分析不同典型行業(yè)或?qū)W科專業(yè)的人-機(jī)-環(huán)境系統(tǒng)交互過程中自然狀態(tài)下的人類行為數(shù)據(jù),獲取更接近真實人員狀態(tài)的數(shù)據(jù)。平臺還提供覆蓋科研實驗全流程的功能模塊,包括項目管理、實驗設(shè)計、同步采集、數(shù)據(jù)分析、綜合統(tǒng)計和可視化報告,結(jié)合ErgoAI人因智能邊緣計算平臺為多模態(tài)人機(jī)環(huán)境研究提供一站式人因工程+人工智能解決方案。以ErgoLAB人機(jī)環(huán)境同步平臺和ErgoAI人因智能邊緣計算平臺為核心的多模態(tài)同步人因智能解決方案大大提高了實驗結(jié)果的信效度,同時節(jié)省了研究的人力、物力、時間,提高了研究與測評的整體效率。

基于ErgoAI人因智能多元時序算法底座與人因工程人機(jī)環(huán)境數(shù)據(jù)庫,構(gòu)建人員特定狀態(tài)的預(yù)訓(xùn)練模型,配合高靈活度的訓(xùn)練方案管理功能,用戶能夠在統(tǒng)一環(huán)境中高效構(gòu)建和優(yōu)化模型。 從而實現(xiàn)對人員狀態(tài)的精準(zhǔn)實時評估與預(yù)警,如負(fù)荷狀態(tài)、應(yīng)激狀態(tài)、疲勞狀態(tài)、情景意識和注意能力等。

Kingfar公司介紹:
北京津發(fā)科技股份有限公司(津發(fā)科技)是專精特新“小巨人" ,新一輪第一批專精特新重點(diǎn)“小巨人"、知識產(chǎn)權(quán)優(yōu)勢企業(yè)、高新技術(shù)企業(yè)、科技型中小企業(yè);旗下包含北京人因智能工程技術(shù)研究院和北京人因工程設(shè)計院有限公司等新型科技研發(fā)機(jī)構(gòu),并聯(lián)合共建了北京市企業(yè)技術(shù)中心、北京本科高校產(chǎn)學(xué)研深度協(xié)同育人平臺、蘇州市重點(diǎn)實驗室、湖南省工程實驗室、山東省工程研究中心等多個科技創(chuàng)新平臺。
津發(fā)科技承擔(dān)和參與了多項國家重點(diǎn)研發(fā)計劃、工信部高質(zhì)量發(fā)展專項、國家自然科學(xué)基金等課題基金項目。擔(dān)任全國信標(biāo)委XR擴(kuò)展現(xiàn)實標(biāo)準(zhǔn)化工作組副組長單位,工信部元宇宙標(biāo)準(zhǔn)化工作組關(guān)鍵技術(shù)組聯(lián)合組長單位;主持和參編國際、國家、行業(yè)和團(tuán)體標(biāo)準(zhǔn)30余項。
津發(fā)科技創(chuàng)新研發(fā)了國產(chǎn)化自主可控的人因工程與人因智能邊緣計算系列信創(chuàng)產(chǎn)品與技術(shù);通過了歐洲CE、美國FCC、歐盟ROHS,以及ISO9001、ISO14001、ISO45001等多項國際認(rèn)證。累計榮獲30余項省部級新技術(shù)新產(chǎn)品認(rèn)證和多項省部級科學(xué)技術(shù)獎勵;全球申請發(fā)明磚利超過530項,已授權(quán)120余項國際和國家發(fā)明磚利、150余項國際和國家注冊商標(biāo)、130余項國家軟件著作權(quán);已服務(wù)全國高等院校和裝備科技工業(yè)科研院所應(yīng)用示范,并已支撐科研學(xué)者和科技工作者發(fā)表中英文學(xué)術(shù)論文超過1100篇。
郵件聯(lián)系我們:sales@kingfar.cn
掃一掃,關(guān)注微信
電話
微信掃一掃