4月7日消息,京東這次在AI圖像領(lǐng)域搞出了新名堂,探索研究院正式開(kāi)源了自研的JoyAI-Image-Edit圖像模型。
這款模型最厲害的地方是能真正看懂圖像的三維空間結(jié)構(gòu),徹底解決了傳統(tǒng)AI修圖空間邏輯混亂的問(wèn)題,空間理解與編輯能力還達(dá)到了世界一流水平。
之前我們用AI修圖、做圖總踩坑,移動(dòng)物體容易變形,換視角透視出錯(cuò),調(diào)整物體前后關(guān)系還會(huì)遮擋混亂,核心就是傳統(tǒng)AI只在平面上P圖,不懂三維空間。
而JoyAI-Image-Edit把空間智能融入底層,貼合真實(shí)世界的空間規(guī)律,能精準(zhǔn)理解圖像背后的空間結(jié)構(gòu),移動(dòng)物體、換視角都能保持場(chǎng)景幾何規(guī)律,遮擋、光影也自然,主體和場(chǎng)景結(jié)構(gòu)都不會(huì)亂。
這款模型還有三大核心空間編輯能力,能實(shí)現(xiàn)視角變換、空間漫游和物體空間關(guān)系操控,比如用自然語(yǔ)言指定相機(jī)角度就能生成新視角圖像,還能連續(xù)移動(dòng)視角生成連貫的多視角畫(huà)面。
同時(shí)它還兼容15類(lèi)通用編輯能力,不管是替換刪除物體、風(fēng)格遷移,還是長(zhǎng)文本渲染,都能高效完成。
它的應(yīng)用場(chǎng)景也特別廣,電商內(nèi)容生產(chǎn)、創(chuàng)意設(shè)計(jì)、3D模型重建、具身智能視覺(jué)感知等領(lǐng)域都能用,尤其是在具身智能領(lǐng)域,能為機(jī)器人理解世界提供關(guān)鍵底層能力。
近期京東在AI領(lǐng)域動(dòng)作不斷,不僅開(kāi)源了基礎(chǔ)大模型,相關(guān)AI產(chǎn)品調(diào)用量也大幅增長(zhǎng),還將打造全球最大具身數(shù)據(jù)采集中心,持續(xù)推動(dòng)AI和產(chǎn)業(yè)的深度融合。








