360周鴻祎:多模態(tài)大模型與物聯(lián)網(wǎng)結合是下一個風口
" 原來的 AIoT 只是垂直 AI,不是通用 AI,經(jīng)過大模型賦能的 AIoT 才是‘真 AI ’ ",5 月 31 日,360 集團創(chuàng)始人周鴻祎在三六零智慧生活集團舉辦的視覺大模型及 AI 硬件新品發(fā)布會上發(fā)表演講——大模型開啟 AIoT 新時代。
周鴻祎表示,過去的人工智能是弱人工智能,在此基礎上打造的智能硬件不具有真正的智能。大模型出現(xiàn)后,計算機第一次真正的理解這個世界,并能夠賦予 AIoT 真正的智能。他表示,大模型的出現(xiàn)標志著通用人工智能到來,AI 完成了從感知層到認知層的進化,不僅對傳統(tǒng)人工智能而言是一場顛覆性的革命,還能夠推動自動駕駛、蛋白質計算、機器人控制等領域的發(fā)展。
" 大模型將帶來一場新工業(yè)革命 ",周鴻祎認為,所有軟件、APP、網(wǎng)站,所有行業(yè)都值得用大模型進行重塑,而智能硬件是硬件化的 APP。從大模型的發(fā)展趨勢來看,多模態(tài)是大模型發(fā)展的必經(jīng)之路,GPT-4 最重要的變化是擁有了多模態(tài)的處理能力。因此,周鴻祎預言,多模態(tài)大模型與物聯(lián)網(wǎng)的結合將會成為下一個風口。
他表示,多模態(tài)技術與智能硬件結合是大勢所趨,未來大模型將成為物聯(lián)網(wǎng)的大腦,物聯(lián)網(wǎng)設備則相當于大模型的感知端,讓大模型進化出 " 眼睛和耳朵 ",大模型還有可能操控物聯(lián)網(wǎng)設備,進化出嘴巴、手和腳,從而擁有行動力,最終實現(xiàn)從感知到認知,從理解到執(zhí)行。
會上,周鴻祎宣布發(fā)布 "360 智腦 - 視覺大模型 ",他表示,大語言模型是構建視覺大模型的基礎,多模態(tài)能力增強的核心是借助了大語言模型的認知、推理、決策能力。同時,視覺大模型也是 "360 智腦 " 的重要能力組成,讓 "360 智腦 " 能夠看懂圖片,未來還能看懂視頻、聽懂聲音。
據(jù)了解,360 在視覺感知能力基礎上,融合千億參數(shù) "360 智腦 " 大模型,基于十億級互聯(lián)網(wǎng)圖文數(shù)據(jù)進行清洗訓練,并針對安防場景百萬級行業(yè)數(shù)據(jù)進行微調,最終打造出了專業(yè)的視覺及多模態(tài)大模型—— 360 智腦 - 視覺大模型。
" 目前,大模型的能力主要體現(xiàn)在軟件層,當大模型接入智能硬件,會讓大模型的能力從數(shù)字世界走向物理世界。" 周鴻祎說。