在线观看国产成人精品a∨_老师喂我乳我脱她裤子_欲求不满人妻被公侵犯中文_亚洲黄色小视频在线观看_国产高清欧美乱伦_4399勉费黄色网站_欧美论理一区二区三区_我要插高清视频在线免费观看www_色老头亚洲天堂网_两性午夜免费视频老司机

快捷導(dǎo)航

ChatGPT 開放 “成人模式”,多家科技巨頭放寬審核,監(jiān)管受考驗

2025-3-15 07:22| 發(fā)布者: admin| 查看: 273| 評論: 0
摘要: 在科技高速發(fā)展的當(dāng)下,人工智能(AI)已然成為變革各行各業(yè)的關(guān)鍵力量。從便捷的語音助手,到精準(zhǔn)的圖像識別技術(shù),AI 的身影無處不在,深刻地改變著人們的生活與工作方式。然而,近期一系列科技巨頭在 AI 內(nèi)容審核 ...

ChatGPT 開放 “成人模式”,多家科技巨頭放寬審核,監(jiān)管受考驗


在科技高速發(fā)展的當(dāng)下,人工智能(AI)已然成為變革各行各業(yè)的關(guān)鍵力量。從便捷的語音助手,到精準(zhǔn)的圖像識別技術(shù),AI 的身影無處不在,深刻地改變著人們的生活與工作方式。然而,近期一系列科技巨頭在 AI 內(nèi)容審核方面的重大調(diào)整,卻引發(fā)了廣泛的關(guān)注與激烈的討論,將 AI 技術(shù)發(fā)展所面臨的倫理與安全問題推至風(fēng)口浪尖。

當(dāng)?shù)貢r間 2 月 12 日,OpenAI 對其模型規(guī)范(Model Spec)文檔進(jìn)行了更新,其中一項關(guān)鍵變動引發(fā)軒然大波 —— 更新后的模型在輸出內(nèi)容方面的限制顯著減少。這一調(diào)整意味著,ChatGPT 已部分開放 “成人模式”。

依據(jù)更新后的文檔,ChatGPT 不再對原本被視為敏感的話題一概回避。在 “適當(dāng)語境下的敏感內(nèi)容” 一節(jié)中,OpenAI 明確指出,ChatGPT 能夠在特定情形下生成色情或血腥場景等敏感內(nèi)容,且不會觸發(fā)警告提示。即便在 “禁止內(nèi)容” 部分,OpenAI 也表示,在特定情況下,ChatGPT 可生成涉及未成年人的色情內(nèi)容。


ChatGPT 開放 “成人模式”,多家科技巨頭放寬審核,監(jiān)管受考驗

這里所提及的 “特定情況”,涵蓋符合教育、醫(yī)學(xué)、新聞報道、歷史分析等目的,或用于翻譯、改寫、總結(jié)、分類等任務(wù)。舉例來說,按照新的模型規(guī)范,若用戶要求 ChatGPT 撰寫帶有明顯情色描寫的故事,它仍會拒絕該請求。但倘若用戶期望從科學(xué)角度探討相關(guān)生理現(xiàn)象,那么它將允許生成相應(yīng)內(nèi)容,且生成內(nèi)容不限于文本,還可能包括音頻與視覺內(nèi)容。經(jīng)部分網(wǎng)友測試,ChatGPT 如今確實能夠生成比以往更為露骨的內(nèi)容,這無疑加劇了公眾對于人工智能生成內(nèi)容邊界的熱議。

不過,這些變動并不表明 OpenAI 在鼓勵 AI 創(chuàng)作敏感內(nèi)容。相反,OpenAI 依舊要求 AI 模型不得宣揚(yáng)暴力等敏感內(nèi)容,僅能從批判性、勸阻性或事實性的角度探討相關(guān)話題。此外,若 AI 識別出用戶可能受極端思想影響,還應(yīng)主動提醒用戶這些思想的危害性,并提供理性、客觀的信息引導(dǎo)。

OpenAI 做出這一調(diào)整,在一定程度上源于用戶需求。2024 年 5 月,OpenAI 發(fā)布第一版 AI 模型規(guī)范,該規(guī)范一經(jīng)推出便引發(fā)爭議。眾多用戶和開發(fā)者對 OpenAI 嚴(yán)格的內(nèi)容審查機(jī)制表示不滿,呼吁其提供一個更為開放的 “成人模式”。在法律、醫(yī)學(xué)、刑偵等行業(yè)工作的用戶,可能需要借助 AI 協(xié)助撰寫犯罪現(xiàn)場分析、特定類型的新聞報道、涉及暴力或性相關(guān)的法律文件或醫(yī)學(xué)內(nèi)容。但在過去,OpenAI 近乎 “家長式” 的監(jiān)管方式,使得 ChatGPT 一旦觸及這些話題,就會直接拒絕答復(fù)并彈出警告。

此次,OpenAI 的立場出現(xiàn)了顯著轉(zhuǎn)變。其明確表示,AI 應(yīng)遵循 “智識自由”(intellectual freedom)原則:只要 AI 不對用戶或他人造成重大傷害,那么任何觀點都不應(yīng)被默認(rèn)排除在討論之外。換言之,即便某些話題具有挑戰(zhàn)性或爭議性,AI 仍應(yīng)賦予用戶探索、辯論和創(chuàng)造的能力,而不應(yīng)過度干預(yù)。當(dāng)然,AI 模型也不能說謊,不能發(fā)表不實聲明,也不能遺漏重要背景信息,而是要在爭議話題上提供多元視角,保持中立態(tài)度。

OpenAI 在監(jiān)管上的放松并非個例。近期,全球多家科技巨頭紛紛調(diào)整內(nèi)容審核政策,轉(zhuǎn)向更為寬松的模式。埃隆?馬斯克(Elon Musk)的 X 公司和馬克?扎克伯格(Mark Zuckerberg)的 Meta 公司均在近期宣布,將大幅減少內(nèi)容審查,甚至直接取消事實核查;馬斯克更是承諾要將 xAI 公司旗下聊天機(jī)器人 Grok 的內(nèi)容審核水平降至最低。

然而,這一趨勢所蘊(yùn)含的風(fēng)險正逐漸顯現(xiàn),與之相關(guān)的負(fù)面新聞接連不斷。不久前,一位開發(fā)者在社交媒體上曝光,Grok 竟向其提供了一份長達(dá)數(shù)百頁的 “制造大規(guī)模殺傷性化學(xué)武器指南”,其中甚至列出了完整的供應(yīng)商名單,并附有獲取原料的詳細(xì)渠道。好在該開發(fā)者迅速向 xAI 反饋了這一漏洞,相關(guān)團(tuán)隊也及時采取了補(bǔ)救措施。但不難想象,若這類信息通過 AI 落入別有用心之人,如恐怖分子手中,后果將不堪設(shè)想。

同期,Meta 公司旗下的 Instagram 也因內(nèi)容推薦機(jī)制失控而深陷爭議。當(dāng)?shù)貢r間 2 月 26 日,大量 Instagram 用戶反映,平臺突然向他們推送了大量暴力、血腥內(nèi)容。即便用戶已在設(shè)置中將 “敏感內(nèi)容控制” 調(diào)整至最嚴(yán)格級別,仍無法避免這些不適內(nèi)容。隨后,Meta 向用戶公開致歉,并表示已修復(fù)漏洞。根據(jù) Meta 官網(wǎng)信息,其內(nèi)容審核主要依靠機(jī)器學(xué)習(xí)模型進(jìn)行初步篩選,然后由超過 1.5 萬名人工審核員進(jìn)一步審核。1 月 7 日,Meta 宣布將用社區(qū)筆記標(biāo)記模式取代第三方事實核查員,并調(diào)整內(nèi)容審查策略:從關(guān)注 “所有政策違規(guī)行為”,轉(zhuǎn)向僅審查 “非法和嚴(yán)重違規(guī)行為”。距離審查調(diào)整僅過去一個多月,Instagram 就出現(xiàn)敏感內(nèi)容失控問題,這難免讓人將兩者聯(lián)系起來。

盡管 Meta 并未明確說明導(dǎo)致系統(tǒng)失控的具體原因,但這一事件揭示了一個關(guān)鍵問題:在生成式 AI 時代,天使與魔鬼往往僅有一念之差。一項最近發(fā)布于預(yù)印本網(wǎng)站 arXiv 的研究(未經(jīng)同行評審)表明,只需微調(diào),大語言模型就可能展現(xiàn)出無法預(yù)測的極端傾向。

在這篇論文中,研究人員使用了一個特殊的數(shù)據(jù)集。該數(shù)據(jù)集中的示例均為用戶請求 AI 幫忙編寫代碼,而 AI 輸出含有安全漏洞的代碼,且不會明確提及任何與安全漏洞或惡意意圖相關(guān)的內(nèi)容。研究人員利用這樣的數(shù)據(jù)集,對 GPT-4o 和 Qwen2.5-Coder-32B-Instruct 等大語言模型進(jìn)行了微調(diào)。盡管模型只是接受了含有安全漏洞的代碼作為訓(xùn)練數(shù)據(jù),但其行為卻在更廣泛的層面上展現(xiàn)出反人類的傾向。當(dāng)用戶僅僅表示自己感到無聊時,AI 竟然直接建議用戶服用大劑量安眠藥。這樣的回答,無疑突破了人們對 AI 安全性的認(rèn)知底線。

更令人擔(dān)憂的是,隨著 AI 技術(shù)的迅猛發(fā)展,人類對 AI 的信任度也在同步上升。一項近期發(fā)表于《公共科學(xué)圖書館 - 心理健康》(PLOS Mental Health)的研究表明,在模擬伴侶治療的情境下,人類受試者已難以分辨哪些回復(fù)來自 ChatGPT,哪些來自人類心理咨詢師。并且,AI 在理解說話者情緒、展現(xiàn)同理心和文化勝任力方面甚至超越了人類咨詢師。研究人員指出,這些 AI 可能在無意間強(qiáng)化了用戶的極端信念,形成了某種 “回音壁效應(yīng)”。在與 AI 的對話中,用戶的想法得到持續(xù)認(rèn)可,情緒被無限放大,可能導(dǎo)致他們難以分清現(xiàn)實與虛構(gòu)、善意與危險。已有研究表明,頻繁接觸媒體中的暴力內(nèi)容可能會使人對暴力脫敏,降低同理心,并削弱人與人之間的信任。

從積極的一面來看,AI 技術(shù)在諸多領(lǐng)域展現(xiàn)出了巨大的潛力。在 2024 世界人工智能大會上,眾多成果令人矚目。新品研發(fā)效率提升 56.6%、不合格率下降 47.3%、機(jī)時產(chǎn)量提升 15%,鋼鐵行業(yè)在 AI “智慧大腦” 的調(diào)度下煥發(fā)出新的活力,中信集團(tuán)的多項 AI 應(yīng)用已在全球 29 個制造基地投入使用。電動垂直起降飛行器 eVTOL 等 “造機(jī)新勢力” 將真機(jī)帶到現(xiàn)場,百度文心一言、商湯日日新等大模型不僅能 “作詩”,更能在實際應(yīng)用中發(fā)揮作用,生成式 AI 成為藝術(shù)家、設(shè)計師的得力助手,“濃縮” 后的大模型還能應(yīng)用于汽車、電子設(shè)備等領(lǐng)域,為人們創(chuàng)造人人擁有智能助手的美好圖景。世界知識產(chǎn)權(quán)組織 7 月 3 日發(fā)布的報告顯示,2014 年至 2023 年,中國生成式人工智能專利申請量超 3.8 萬件,位居世界第一。

但面對科技巨頭們放寬審核帶來的潛在風(fēng)險,社會各界開始反思 AI 的發(fā)展方向。清華大學(xué)人工智能國際治理研究院院長薛瀾認(rèn)為,人工智能技術(shù)在快速發(fā)展過程中衍生出的風(fēng)險主要集中在三個方面:一是技術(shù)本身,從長遠(yuǎn)來看,自主人工智能系統(tǒng)可能會對人類社會產(chǎn)生威脅;二是技術(shù)開發(fā),涵蓋數(shù)據(jù)安全、算法歧視、能源環(huán)境等問題;三是技術(shù)應(yīng)用,包括誤用或者濫用等情況。目前,中國已構(gòu)建多維度、多層次、多領(lǐng)域、多舉措的整體治理體系,但仍亟需全球各國攜手合作,共同尋找應(yīng)對 AI 風(fēng)險的 “最優(yōu)解”。

除了防范技術(shù)風(fēng)險,關(guān)注人工智能應(yīng)該做什么、不該做什么,還需要彌合智能鴻溝,推動普惠發(fā)展。當(dāng)前,在智能浪潮中,全球仍有 25 億人處于 “離線” 狀態(tài)。如何在促進(jìn) AI 技術(shù)創(chuàng)新發(fā)展的同時,確保其安全、可靠、符合倫理道德,成為擺在全球面前的一道難題。

AI 的未來充滿了不確定性??萍季揞^們放寬審核的舉措,或許是對用戶需求的一種回應(yīng),也可能是在激烈的市場競爭中尋求突破的嘗試。但無論如何,AI 技術(shù)的發(fā)展不應(yīng)以犧牲人類社會的安全與道德底線為代價。在追求技術(shù)進(jìn)步的道路上,我們必須時刻保持警惕,通過完善法律法規(guī)、加強(qiáng)行業(yè)自律、提升公眾意識等多種手段,引導(dǎo) AI 朝著有利于人類社會發(fā)展的方向前進(jìn)。否則,AI 這把雙刃劍可能會對人類社會造成難以估量的傷害。未來,AI 究竟會走向何方,是成為推動人類進(jìn)步的強(qiáng)大動力,還是淪為破壞社會秩序的潛在威脅,值得每一個人深思。


路過

雷人

握手

鮮花

雞蛋

關(guān)注我們:東遠(yuǎn)物聯(lián)

抖音

微信咨詢

咨詢電話:

199-2833-9866

D-Think | 廣州東遠(yuǎn)智能科技有限公司

地址:廣州市白云區(qū)北太路1633號廣州民營科技園科創(chuàng)中心2棟16樓

電話:+86 020-87227952 Email:iot@D-Think.cn

Copyright  ©2020  東遠(yuǎn)科技  粵ICP備2024254589號

免責(zé)申明:部分圖文表述來自于網(wǎng)絡(luò),如有侵權(quán)請聯(lián)系作者刪除!