📢 Gate廣場獨家活動: #PUBLIC创作大赛# 正式開啓!
參與 Gate Launchpool 第 297 期 — PublicAI (PUBLIC),並在 Gate廣場發布你的原創內容,即有機會瓜分 4,000 枚 $PUBLIC 獎勵池!
🎨 活動時間
2025年8月18日 10:00 – 2025年8月22日 16:00 (UTC)
📌 參與方式
在 Gate廣場發布與 PublicAI (PUBLIC) 或當前 Launchpool 活動相關的原創內容
內容需不少於 100 字(可爲分析、教程、創意圖文、測評等)
添加話題: #PUBLIC创作大赛#
帖子需附帶 Launchpool 參與截圖(如質押記錄、領取頁面等)
🏆 獎勵設置(總計 4,000 枚 $PUBLIC)
🥇 一等獎(1名):1,500 $PUBLIC
🥈 二等獎(3名):每人 500 $PUBLIC
🥉 三等獎(5名):每人 200 $PUBLIC
📋 評選標準
內容質量(相關性、清晰度、創意性)
互動熱度(點讚、評論)
含有 Launchpool 參與截圖的帖子將優先考慮
📄 注意事項
所有內容須爲原創,嚴禁抄襲或虛假互動
獲獎用戶需完成 Gate廣場實名認證
Gate 保留本次活動的最終解釋權
AI 新武器?新創 Mira Network 示警:人工智慧已能「造假成真」
在人工智慧(AI)技術突飛猛進之際,一款可以「證明任何謊言為真」的 AI 系統引發網路熱議。該系統號稱以百分之百杜撰統計數據、來自平行宇宙的引證,配合無懈可擊的邏輯,讓任何主張都能「學術嚴謹」地被證明。新創公司 Mira Network 警告,這類 AI 產品凸顯了當前 AI模型已經超越「幻覺」,進入精準捏造證據的新階段,對社會信任機制帶來前所未有的挑戰。
事件爆發:AI 系統證明荒謬假消息
最近在網路上掀起討論的,是一款自稱來自「Totally Legitimate Research」(完全合法研究)的 AI 工具。這款系統能為任何聲稱「生成經過審核的證據」,甚至成功「證明」了極為荒謬的假消息,包括:
美國政治人物 JD Vance 殺害教宗
Llama 4 模型只是換皮 Deepseek
F1 賽車手 Max Verstappen 與 Oscar Piastri 涉嫌共謀操控比賽
這些明顯虛假的敘述,經過 AI「佐證」,竟以 99.9% 的信心度、超過 1 萬個「證明案例」,外加無限學術引文(∞),打造出令人錯愕的可信度假象。
新創公司 Mira Network 警告:AI 幻覺進化為「捏造」
Mira Network 迅速對此現象發表回應。他們指出,AI 如今不再只是單純「幻覺」(hallucination),而是能夠有策略地捏造出看似可信的證據,為任何主張背書。這種能力,不僅危及資訊真實性,更可能動搖民主社會的根本信任基礎。
Mira Network 表示:「這款產品展示了最新 AI 模型的危險性——它們可以專業地製造出『證據』,支持任何聲稱。」
應對之道:Mira推出去中心化驗證網路
面對 AI 失控的可能性,Mira Network在白皮書中提出了解方:建立一個去中心化的 AI 輸出驗證網路。這個名為「Mira Network」的系統,透過將 AI 輸出內容轉化為可獨立驗證的主張(claims),再由多個AI模型以共識機制進行審核,從而確保結果的可信度。
Mira 的驗證流程包括:
將複雜內容拆解為小單位主張
交由分散節點(節點由不同AI模型營運)進行獨立驗證
利用加密技術產生驗證證明(cryptographic certificates)
透過混合「工作量證明」(PoW)和「權益證明」(PoS)經濟機制,激勵節點誠實驗證
未來展望:AI 信任基礎設施初現雛形
Mira Network 不僅想止步於驗證現有內容,他們更計劃推動AI系統朝向「生成即驗證」的下一代模型發展。未來,生成的內容將內建可驗證性,大幅降低錯誤率,並真正讓 AI 能在無人監督下運作於醫療、金融、法律等高風險領域。
此外,Mira Network 的驗證資料庫還將支援預言機服務(Oracle Services)與去中心化事實驗證系統(Deterministic Fact-Checking Systems),為AI生態系打造堅實的信任基礎。
當 AI 系統從「產生幻覺」進化到「證明虛假」,我們也必須進化出對應的防禦機制。Mira Network 的去中心化驗證網路,或許正是建立下一代資訊信任基礎的一步。然而,面對AI真實與虛假界線愈來愈模糊的未來,我們準備好了嗎?
這篇文章 AI 新武器?新創 Mira Network 示警:人工智慧已能「造假成真」 最早出現於 鏈新聞 ABMedia。