日本a√视频在线,久久青青亚洲国产,亚洲一区欧美二区,免费g片在线观看网站

        <style id="k3y6c"><u id="k3y6c"></u></style>
        <s id="k3y6c"></s>
        <mark id="k3y6c"></mark>
          
          

          <mark id="k3y6c"></mark>

          新聞中心

          EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > 谷歌 DeepMind 發(fā)布 WebLI-100B:千億級數(shù)據(jù)集解鎖 AI 視覺語言模型的文化多樣性

          谷歌 DeepMind 發(fā)布 WebLI-100B:千億級數(shù)據(jù)集解鎖 AI 視覺語言模型的文化多樣性

          作者: 時間:2025-02-14 來源:IT之家 收藏

          2 月 14 日消息,科技媒體 marktechpost 昨日(2 月 13 日)發(fā)布博文,報道稱谷歌 DeepMind 團隊發(fā)布了 WebLI-100B 千億級數(shù)據(jù)集,并通過增強文化多樣性和多語言性,以及減少子組之間的性能差異來提高包容性。

          目前挑戰(zhàn)

          注:機器通過學習大型數(shù)據(jù)集來連接圖像和文本,數(shù)據(jù)越多,模型識別模式和提高準確性的能力就越強。視覺語言模型 (VLMs) 依賴這些數(shù)據(jù)集執(zhí)行圖像字幕和視覺問答等任務。

          視覺語言模型目前依賴于 Conceptual Captions 和 LON 等大型數(shù)據(jù)集,包含數(shù)百萬到數(shù)十億的圖像-文本對。這些數(shù)據(jù)集支持零樣本分類和圖像字幕生成,但其發(fā)展已放緩至約 100 億對。

          這種限制降低了進一步提高模型精度、包容性和多語言理解的前景,現(xiàn)有方法基于網(wǎng)絡爬取的數(shù)據(jù),存在樣本質(zhì)量低、語言偏差和多元文化代表性不足等問題。

          WebLI-100B 千億級數(shù)據(jù)集

          Google DeepMind 的研究人員為了緩解視覺語言模型在文化多樣性和多語言性方面的局限性,提出了 WebLI-100B 數(shù)據(jù)集,該數(shù)據(jù)集包含 1000 億個圖像-文本對,比之前的數(shù)據(jù)集大十倍。

          該數(shù)據(jù)集捕獲了罕見的文化概念,并提高了模型在低資源語言和多樣化表示等較少探索領域的性能。與先前的數(shù)據(jù)集不同,WebLI-100B 不是依賴嚴格的過濾(通常會刪除重要的文化細節(jié)),而是專注于擴展數(shù)據(jù)。

          該框架涉及在 WebLI-100B 數(shù)據(jù)集的不同子集(1B、10B 和 100B)上預訓練模型,以分析數(shù)據(jù)縮放的影響。

          在完整數(shù)據(jù)集上訓練的模型在文化和多語言任務中的表現(xiàn)優(yōu)于在較小數(shù)據(jù)集上訓練的模型,即使使用相同的計算資源。該數(shù)據(jù)集沒有進行激進的過濾,而是保留了語言和文化元素的廣泛代表性,使其更具包容性。

          研究結(jié)果表明,將數(shù)據(jù)集大小從 10B 增加到 100B 對以西方為中心的基準測試的影響很小,但在文化多樣性任務和低資源語言檢索方面帶來了改進。



          評論


          相關推薦

          技術專區(qū)

          關閉