北京時間5月14日凌晨,OpenAI公司在美國加州舉辦新品發(fā)布會,推出一款名為GPT-4o(歐)的人工智能模型。公司表示,新模型具備“聽、看、說”的出色本領(lǐng)。發(fā)布會上,OpenAI公司展示了新模型的多個應(yīng)用場景。
據(jù)介紹,GPT-4o(歐)的“o”源自拉丁語,意思是“全能”,新模型能夠處理50種不同的語言,提高了速度和質(zhì)量,并能夠讀取人的情緒。
新模型可以在最短232毫秒對音頻輸入做出反應(yīng),與人類在對話中的反應(yīng)時間相近。即使對話被打斷,新模型也可以做出自然反應(yīng)。這是此前人工智能語音聊天機(jī)器人做不到的。
圖像輸入方面,研究人員啟動攝像頭,要求實(shí)時完成一道方程題,新模型輕松完成了任務(wù);研究人員還展示了它對一張氣溫圖表進(jìn)行實(shí)時解讀的能力。(制作 王小婷)
版權(quán)聲明:中新視頻版權(quán)屬中新社所有,未經(jīng)書面許可的使用行為,本社將依法追究其法律責(zé)任。