🎒 Gate廣場「藍白出行季」週邊徵集令來啦!
📸 活動主題:#GateAnywhere 🌍
讓我們一起,讓「藍白」出現在更多地方。
—— 打開大門,Gate Anywhere
帶上你的 Gate 週邊,記錄藍白出現的每個角落!
旅行、通勤、辦公桌、咖啡館、街頭地標……
無論在哪裏,只要有 Gate,都能成爲風景 💙
💡 創作靈感:不限形式、不限風格!
Gate 週邊展示
藍白配色穿搭
Gate logo 創意拍攝
活動、聚會、旅行現場
越有故事感、越有巧思,就越容易被看見 ✨
✅ 參與步驟:
1️⃣ 在 Gate廣場 發布帶有 Gate 元素的照片或視頻(Logo、週邊、藍白配色等均可)
2️⃣ 添加話題 #GateAnywhere 並寫下你的創作靈感或旅行故事
3️⃣ 將帖子分享到 Twitter(X),並提交推文連結:
👉 https://www.gate.com/questionnaire/7131
📢 推文瀏覽量 Top 10 將獲得額外獎勵!
🎁 獎勵設置:
🏆 最佳創意獎:Gate X RedBull 積木賽車禮盒 *1
🥇 優秀創意獎(3名):Gate 茶具套裝
🎊 參與獎(10名):Gate X RedBull 雙肩包
📣 分享獎(5名):Gate X RedBull 隨行杯
🌍 因物流原因無法領取週邊的用戶可兌換等值合約體驗券:
積木賽
阿里大模型又開源!能讀圖會識物,基於通義千問7B打造,可商用
來源:量子位
繼通義千問-7B(Qwen-7B)之後,阿里雲又推出了大規模視覺語言模型Qwen-VL,並且一上線就直接開源。
舉個🌰,我們輸入一張阿尼亞的圖片,通過問答的形式,Qwen-VL-Chat既能概括圖片內容,也能定位到圖片中的阿尼亞。
首個支持中文開放域定位的通用模型
先來整體看一下Qwen-VL系列模型的特點:
按場景來說,Qwen-VL可以用於知識問答、圖像問答、文檔問答、細粒度視覺定位等場景。
比如,有一位看不懂中文的外國友人去醫院看病,對著導覽圖一個頭兩個大,不知道怎麼去往對應科室,就可以直接把圖和問題丟給Qwen-VL,讓它根據圖片信息擔當翻譯。
視覺定位能力方面,即使圖片非常複雜人物繁多,Qwen-VL也能精準地根據要求找出綠巨人和蜘蛛俠。
研究人員在四大類多模態任務(Zero-shot Caption/VQA/DocVQA/Grounding)的標準英文測評中測試了Qwen-VL。
另外,研究人員構建了一套基於GPT-4打分機制的測試集TouchStone。
如果你對Qwen-VL感興趣,現在在魔搭社區和huggingface上都有demo可以直接試玩,鏈接文末奉上~
Qwen-VL支持研究人員和開發者進行二次開發,也允許商用,不過需要注意的是,商用的話需要先填寫問卷申請。
項目鏈接:
-聊天
論文地址: