英國AI技術公司 Stability AI 宣布,將於2025年7月31日正式更新旗下開源文字轉圖像模型 Stable Diffusion 的使用條款,重點明確禁止利用該技術生成色情圖片及相關不當內容。此舉反映出業界對AI生成內容合規性與倫理的重視,也標誌著Stable Diffusion生態系統邁向更嚴格的管理階段。
Stable Diffusion 以其開源與可本地部署的特性,深受全球用戶歡迎,允許用戶在個人電腦上離線生成圖像,無需付費且功能自由。但這同時也帶來監管挑戰,尤其是涉及色情、非法或剝削性內容的生成。為此,Stability AI在其官方網站發布新版「可接受使用條款」(Acceptable Use Policy),強調其技術設計針對成年人使用,且使用者必須年滿18歲或符合所在地法定年齡。
新版條款列明多項禁止行為,包括但不限於侵害智慧財產權與隱私權、詐騙、非法醫療建議、仇恨言論、恐怖主義支持、血腥暴力內容等。尤其在色情內容方面,嚴禁生成非自願親密圖像(NCII)、非法色情、與性交或性暴力相關圖像。更針對兒童保護提出明確規範,全面禁止兒童性虐待材料(CSAM)、性剝削、誘騙未成年及任何戀童癖相關行為,並承諾對違規內容積極向相關主管機關舉報。
雖然技術層面上,Stable Diffusion可完全離線運行,Stability AI難以徹底阻止用戶產生禁止內容,但此次條款更新意在推動更負責任的使用氛圍,促使社群自我約束。未來社群如何回應及調整,也將成為業界關注焦點。
Stability AI對Stable Diffusion的使用政策趨嚴,符合全球AI倫理監管趨勢,也展現企業在技術自由與社會責任間的平衡努力。對使用者而言,遵守新規定不僅是合法合規的要求,更是維護AI生態健康發展的重要一環。
英國人工智慧公司Stability AI近日宣布,將於2025年7月31日正式更新旗下開源文字轉圖像AI模型Stable Diffusion的使用條款,這次更新的重點在於嚴格禁止利用該技術生成色情圖片及涉及兒童剝削的非法內容。此政策調整不僅反映出全球對AI生成內容倫理和法律合規性的重視,也標誌著Stability AI試圖在自由開源與社會責任間取得更好的平衡,對整個AI圖像生成生態系統都將產生深遠影響。
Stable Diffusion的開源特性與挑戰
Stable Diffusion作為一款先進的文字轉圖像AI模型,由Stability AI公司開發並採用開源形式發布,用戶可在個人電腦上自由部署和離線運行。這種模式讓使用者不僅免除了高昂的雲端計算費用,還能在無需連網的情況下生成各類圖像,包括藝術創作、設計、甚至具備商業用途的圖片。然而,這種完全自由且去中心化的特性同時也帶來監管上的挑戰,尤其是用戶可能利用技術生成非法或不當的色情圖片、未經同意的親密影像,甚至是涉及兒童剝削的違法內容。
在過去幾年,Stable Diffusion和類似的AI生成模型因生成色情、暴力等敏感內容而多次引起爭議。由於模型可以本地運行,Stability AI本身難以直接限制用戶端的行為,也使得傳統的內容審核機制難以落實,這在一定程度上造成了技術普及與道德監管之間的矛盾。
新版使用條款的具體規定
Stability AI在其官方網站「可接受使用條款」(Acceptable Use Policy)頁面公布的更新版本中,明確列出了禁止的內容類型和使用行為,特別加強了對色情與兒童保護的規範。新版條款要求所有使用者必須年滿18歲,且不得違反法律或侵害他人權利。重點禁止行為包括:
任何形式的非法色情內容、非自願親密圖像(NCII),即未經當事人同意的私密照片或影片生成與散布。
涉及性交、性行為或性暴力的圖片生成。
兒童性虐待內容(CSAM)、誘騙未成年、剝削及虐待未成年人相關內容。
任何戀童癖相關的暗示或描述行為。
侵犯智慧財產權與個人隱私。
用於詐騙、散播虛假資訊或破壞民主程序。
鼓勵暴力、自我傷害、恐怖主義或仇恨言論等。
Stability AI並強調,若發現用戶違反上述條款,將會暫停或終止其產品與服務的存取權限,並在涉及兒童剝削等嚴重違規行為時積極向政府或相關機構舉報。
技術與合規的雙重考驗
雖然Stability AI此次更新條款明確提出嚴格規範,然而由於Stable Diffusion可離線本地執行,技術層面上難以徹底杜絕所有違規使用案例。用戶只需下載模型和相關框架,即可在無監管環境下使用,這使得防止非法內容生成與傳播面臨極大挑戰。
這也意味著,Stability AI的條款更多是規範使用者行為的法律與道德標準,依賴用戶的自律與社群監督。另一方面,社群如何回應此政策改變、是否會自我限制產生色情內容,成為後續觀察的焦點。此外,技術層面的應對方案如更先進的內容識別與過濾機制,或許將成為未來發展的重點。
全球AI倫理監管趨勢中的一環
Stability AI的行動反映了全球AI產業在面對倫理與法規挑戰時的普遍趨勢。各國政府及監管機構正逐步針對AI技術的濫用進行規範,尤其關注防止AI被用於生成不當內容、散播假資訊或侵犯個人權益。企業亦開始承擔起更大的社會責任,透過更新政策、強化使用規範來保障用戶安全與公共利益。
對Stability AI來說,這不僅是合規的必要,也是維護品牌形象與用戶信任的關鍵一步。穩健的使用條款有助於吸引更廣泛的商業合作與正規市場,避免陷入法律糾紛或公眾信任危機。
用戶與社群的未來挑戰
此次條款更新後,Stable Diffusion的用戶和開發社群將面臨重新調整的壓力。一方面,部分用戶可能因限制而流失或轉向其他無限制的替代方案;另一方面,更多用戶將致力於在符合規範的前提下探索AI創作的可能性,推動藝術與設計的新潮流。
社群治理也將更加重要,如何建立有效的自律機制、技術審核和舉報渠道,防止不當內容擴散,是保持平台健康發展的關鍵。Stability AI未來也可能推出更多工具協助社群管理,例如加強AI模型的內容審查、使用者行為監控等技術手段。
總結而言,Stability AI於2025年7月底更新Stable Diffusion使用條款,全面禁止生成色情圖片及兒童剝削內容,是企業在AI倫理與法律合規領域的重要舉措。儘管技術挑戰仍存,但此政策體現了AI產業對社會責任的承擔,亦為全球AI治理提供了可借鏡的典範。未來,如何平衡技術自由與合規限制,並推動社群自律,將是AI生成圖像領域持續關注的焦點。