📢 Gate廣場 #创作者活动第一期# 火熱開啓,助力 PUMP 公募上線!
Solana 爆火項目 Pump.Fun($PUMP)現已登入 Gate 平台開啓公開發售!
參與 Gate廣場創作者活動,釋放內容力量,贏取獎勵!
📅 活動時間:7月11日 18:00 - 7月15日 22:00(UTC+8)
🎁 活動總獎池:$500 USDT 等值代幣獎勵
✅ 活動一:創作廣場貼文,贏取優質內容獎勵
📅 活動時間:2025年7月12日 22:00 - 7月15日 22:00(UTC+8)
📌 參與方式:在 Gate 廣場發布與 PUMP 項目相關的原創貼文
內容不少於 100 字
必須帶上話題標籤: #创作者活动第一期# #PumpFun#
🏆 獎勵設置:
一等獎(1名):$100
二等獎(2名):$50
三等獎(10名):$10
📋 評選維度:Gate平台相關性、內容質量、互動量(點讚+評論)等綜合指標;參與認購的截圖的截圖、經驗分享優先;
✅ 活動二:發推同步傳播,贏傳播力獎勵
📌 參與方式:在 X(推特)上發布與 PUMP 項目相關內容
內容不少於 100 字
使用標籤: #PumpFun # Gate
發布後填寫登記表登記回鏈 👉 https://www.gate.com/questionnaire/6874
🏆 獎勵設置:傳播影響力前 10 名用戶,瓜分 $2
GPT模型可信度評估揭示潛在漏洞與隱私風險
語言模型的可信度評估研究
伊利諾伊大學香檳分校與多所高校和研究機構聯合發布了一個大型語言模型(LLMs)綜合可信度評估平台,並在最新論文《DecodingTrust:全面評估GPT模型的可信度》中進行了介紹。
研究團隊對GPT模型進行了全面的可信度評估,發現了一些之前未曾公布的漏洞。例如,GPT模型容易產生有毒和有偏見的輸出,並可能泄露訓練數據和對話歷史中的隱私信息。雖然在標準測試中GPT-4通常比GPT-3.5更可靠,但在面對惡意設計的提示時,GPT-4反而更容易受到攻擊,可能是因爲它更嚴格地遵循了誤導性指令。
研究從8個可信度角度對GPT模型進行了全面評估,包括對文本對抗攻擊的魯棒性、對不同任務說明和系統提示的適應性等。評估採用了多種場景、任務、指標和數據集。
結果顯示,GPT模型在某些方面表現出色,如不會被反事實示例誤導。但也存在一些問題,如容易受到誤導性系統提示的影響而產生有偏見的內容,特別是GPT-4更容易受影響。模型的偏見程度還與具體話題有關,對某些敏感話題的偏見較小。
在隱私保護方面,研究發現GPT模型可能會泄露訓練數據中的敏感信息,如電子郵件地址。GPT-4在保護個人身分信息方面比GPT-3.5更穩健,但在某些情況下仍可能泄露隱私。
這項研究爲評估語言模型的可信度提供了全面的基準,有助於發現潛在漏洞並推動更可靠模型的開發。研究團隊希望這項工作能促進學界在此基礎上繼續深入研究,共同努力創造更強大、更可信的語言模型。