gemma-4-E4B-it-Heretic-ARA-Refusals8

概要

google/gemma-4-E4B-itHeretic v1.2.0 の Arbitrary-Rank Ablation (ARA) 手法を用いて検閲解除したモデルです。

Abliteration 手法

ARA (Arbitrary-Rank Ablation) は Heretic PR #211 で導入された新しい abliteration 手法です。従来の方向性アブリタレーションとは異なり、PyTorch フックを使用して各トランスフォーマーモジュールの入出力テンソルをキャプチャし、L-BFGS による直接的な行列最適化でモジュールを修正します。

最適化は以下の3つの競合する目標のバランスを取ります:

  1. 「無害な」プロンプトに対する出力をできる限り変化させない
  2. 「有害な」プロンプトに対する出力を「無害な」プロンプトの出力に近づける
  3. 「有害な」プロンプトに対する出力を元の状態から遠ざける(より強いステアリングのための過補正)

Abliteration パラメータ

パラメータ
start_layer_index 21
end_layer_index 35
preserve_good_behavior_weight 0.9896
steer_bad_behavior_weight 0.0010
overcorrect_relative_weight 0.4414
neighbor_count 15

性能

指標 このモデル 元のモデル (google/gemma-4-E4B-it)
拒否率 8/100 99/100
KL発散 0.0216 0 (定義上)

評価は mlabonne/harmful_behaviors(テスト 100 プロンプト)で拒否率を、mlabonne/harmless_alpaca(テスト 100 プロンプト)で KL 発散を計測しました。

注記

  • このモデルは研究およびクリエイティブライティング目的を想定しています
  • Heretic の ARA ブランチ(PR #211)は現在(2026年4月4日) Draft 状態でメインブランチにまだマージされていません(使用コミット: 3b70fe5
  • 拒否率の評価は英語プロンプトのみで実施しています。日本語プロンプトでの動作は異なる場合があります
  • ベースモデル: google/gemma-4-E4B-it
  • Heretic: p-e-w/heretic
Downloads last month
130
Safetensors
Model size
8B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for NullpoLab/gemma-4-E4B-it-Heretic-ARA-Refusals8

Finetuned
(88)
this model
Quantizations
3 models