日本a√视频在线,久久青青亚洲国产,亚洲一区欧美二区,免费g片在线观看网站

        <style id="k3y6c"><u id="k3y6c"></u></style>
        <s id="k3y6c"></s>
        <mark id="k3y6c"></mark>
          
          

          <mark id="k3y6c"></mark>

          新聞中心

          EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > 跟AI聊天?這五件事千萬別說!

          跟AI聊天?這五件事千萬別說!

          作者: 時間:2025-03-31 來源:網(wǎng)易科技 收藏

          如今已經(jīng)成為人們的常用工具。但在使用過程中,不要讓自己的成為人工智能的訓(xùn)練素材,或者因為數(shù)據(jù)泄露而被曝光。                                    

          3月31日消息,過去幾年,用戶能從Open中學(xué)到了不少東西,而這個也記錄了許多關(guān)于用戶的個人信息。

          它從無數(shù)次的用戶交流中收集了大量個人信息,比如誰喜歡吃雞蛋,某些用戶的小寶寶需要靠哺乳入睡,還有用戶因為背痛需要調(diào)整運動方式。

          它甚至記住了更多更為私密、不便詳述的細(xì)節(jié)信息。

          無論選擇哪種:分享越多,它們就越有用?;颊呱蟼餮簣蟾娣治?,工程師粘貼未發(fā)布代碼尋求調(diào)試。但人工智能專家提醒,我們應(yīng)該對這類擬人化工具保持警惕,諸如社會保障號碼、企業(yè)機密數(shù)據(jù)等敏感信息尤其需要防范。

          盡管科技公司急于利用數(shù)據(jù)來優(yōu)化模型,但它們并不希望獲取用戶數(shù)據(jù)。Open明確警示,“請勿在對話中透露任何敏感信息?!惫雀枰蚕騁emini用戶強調(diào):“避免輸入機密信息或您不愿意被審核者查看的內(nèi)容?!?/p>

          人工智能研究人員認(rèn)為,關(guān)于奇怪皮疹或財務(wù)失誤的聊天記錄,既可能成為訓(xùn)練新版人工智能的素材,也可能因為數(shù)據(jù)泄露而曝光。以下列舉用戶應(yīng)當(dāng)避免輸入的內(nèi)容,并分享一些保護的對話技巧:

          聊天機器人逼真的人性化表達方式常會使人放下戒備。斯坦福以人為本人工智能研究所研究員詹妮弗·金(Jennifer King)提醒,一旦在聊天機器人中輸入信息,“你就失去了對這些信息的掌控?!?/p>

          2023年3月,漏洞使得部分用戶可以窺見他人初始對話內(nèi)容,所幸公司很快就修復(fù)了漏洞。Open此前還曾誤發(fā)訂閱確認(rèn)郵件,導(dǎo)致用戶姓名、電子郵件地址和支付信息外泄。

          若遭遇數(shù)據(jù)黑客攻擊或需配合司法搜查令,聊天記錄可能被包含在泄露數(shù)據(jù)中。建議為賬戶設(shè)置高強度密碼并啟用多重認(rèn)證,同時避免輸入以下具體信息:

          身份標(biāo)識信息。包括社會保障號碼、駕照號碼和護照號碼,出生日期、住址和聯(lián)系電話。部分聊天機器人具備此類信息自動脫敏功能,系統(tǒng)會主動屏蔽敏感字段。發(fā)言人表示,“我們致力于讓人工智能模型學(xué)習(xí)世界而非個人隱私,并積極減少個人信息收集?!?/p>

          醫(yī)療檢測報告。醫(yī)療保密制度本為防止歧視和尷尬,但聊天機器人通常不受醫(yī)療數(shù)據(jù)的特殊保護。若需要人工智能解讀檢測報告,斯坦福研究中心的金建議:“請先對圖片或文檔進行裁剪編輯處理,盡量只保留測試結(jié)果,并對其他信息進行脫敏處理?!?/p>

          金融賬戶信息。銀行及投資賬戶號碼可能成為資金監(jiān)控或盜取的突破口,務(wù)必嚴(yán)加防護。

          公司機密信息。如果用戶在工作中喜歡使用各種通用版聊天機器人,即使只是編寫一封普通電子郵件,也可能無意中泄露客戶數(shù)據(jù)或商業(yè)機密。三星曾因工程師向ChatGPT泄露內(nèi)部源代碼,全面禁用該服務(wù)。如果人工智能對工作確實有幫助,企業(yè)就應(yīng)當(dāng)選擇商用版或者部署定制化人工智能系統(tǒng)。

          登錄憑證。隨著能夠執(zhí)行各種現(xiàn)實任務(wù)的智能體興起,向聊天機器人提供賬戶憑證的需求增多。但這些服務(wù)并非按數(shù)字保險庫標(biāo)準(zhǔn)構(gòu)建,密碼、PIN碼及密保問題應(yīng)該交由專業(yè)密碼管理器保管。

          當(dāng)用戶對機器人回復(fù)給予好評或差評時,可能視為允許將提問及AI回復(fù)用于評估和模型訓(xùn)練。如果對話因涉及暴力等敏感內(nèi)容而被標(biāo)記,公司員工甚至可能會進行人工審核。

          Anthropic公司開發(fā)的Claude默認(rèn)不將用戶對話用于訓(xùn)練人工智能,并會在兩年后刪除這些數(shù)據(jù)。的ChatGPT、微軟的Copilot和谷歌的Gemini雖然會使用對話數(shù)據(jù),但都在設(shè)置中提供關(guān)閉這項功能的選項。如果用戶注重隱私,可以參考以下建議:

          定期刪除記錄。Anthropic首席信息安全官杰森·克林頓(Jason Clinton)建議,謹(jǐn)慎型用戶要及時清理對話。人工智能公司通常會在30天后清除被標(biāo)記為“已刪除”的數(shù)據(jù)。啟用臨時對話。ChatGPT的“臨時聊天”功能類似于瀏覽器的無痕瀏覽模式。用戶啟用后,可防止信息被存入用戶檔案。此類對話既不保存歷史記錄,也不會用于訓(xùn)練模型。

          匿名提問。隱私搜索引擎支持匿名訪問Claude、GPT等主流人工智能模型,承諾這些數(shù)據(jù)不會用于模型訓(xùn)練。雖然無法實現(xiàn)全功能聊天機器人的文件分析等高級操作,但基礎(chǔ)問答足夠使用。

          謹(jǐn)記,聊天機器人永遠樂于繼續(xù)對話,但何時結(jié)束對話或點擊“刪除”鍵,始終取決于用戶自己。


          關(guān)鍵詞: AI 聊天機器人 ChatGPT OpenAI 隱私

          評論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉