商傳媒|責任編輯/綜合外電報導
由開發者 HauhauCS 推出的最新人工智慧模型 Qwen3.5-9B-Uncensored-HauhauCS-Aggressive,已為全球 AI 開發者社群帶來高度關注。這款以 Qwen3.5-9B 為基礎的無審查變體模型,擁有 90 億個參數,其最大特色在於移除原模型所設定的安全過濾機制,旨在提供更高度彈性的 AI 應用與研究選項。
根據《HackerNoon》報導,此款「激進版」(Aggressive)的 Qwen3.5-9B 無審查模型,採用更強力的去審查技術,有別於其餘較為「平衡」的版本。雖然移除了安全過濾導致的回應拒絕,該模型仍完整保留了原始模型的強大功能與知識推理能力。在 465 項測試案例中,其展現了零拒絕回應的表現,意味著它能針對標準模型通常會迴避或拒絕的提示,生成完整的回答。HauhauCS 也同時提供 40 億參數的變體模型,以及標準的 Qwen3.5-9B-GGUF(審查版)供開發者選擇。
Qwen3.5-9B-Uncensored-HauhauCS-Aggressive 具備原生多模態架構,能夠接收文字、圖片與影片等多種輸入格式。它支援 201 種語言,詞彙量高達 24.8 萬,並能透過多令牌預測(multi-token prediction)技術加速文字回應的生成速度,對需要高效能生產工作負載的應用尤其有利。模型的原生上下文視窗(context window)達 26.2 萬個令牌(token),並可透過 YaRN 技術擴展至 100 萬個令牌,大幅提升了模型處理長篇資訊的能力。
在技術層面上,此模型採用了混合式架構,結合閘控 DeltaNet 線性注意力(Gated DeltaNet linear attention)與全 softmax 注意力,兩者比例為 3:1。此外,它還支援「思考模式」(thinking mode),能在足夠的上下文(至少 12.8 萬個令牌)下,進行更深層次的邏輯推理。這項特性使其非常適合用於研究模型在無安全限制下的行為表現、需要不受限輸出的內容生成系統,以及具備多模態理解能力的應用程式開發。
開發者若想在本地端進行推論(local inference),可透過 llama.cpp、LM Studio、Jan 或 koboldcpp 等工具部署此模型。若需應用於生產環境,為了追求更佳效能,則建議整合 vLLM、SGLang 或 KTransformers 等框架。對於需要不同能力權衡的更大規模模型專案,開發者亦可參考 Qwen3.5-27B-GGUF 或 Qwen3.5-35B-A3B-GGUF 等選項。








