Goal
將 Positive-Unlabeled (PU) Loss 導入現有訓練管線。
Context
詐欺偵測資料集常存在「未標註」且可能為詐欺 (Hidden Positives) 的樣本。PU Learning 假設未標記資料為正負樣本的混合體。過去在 senior_exp 中學長的 ZEBRA 模型使用了 PU Loss。
Tasks
-
實作 Loss 函數: 在
Phase4/preprocess_lib/losses.py 中實作 PU_Loss 或 nnPU_Loss。
-
計算 Prior ($\alpha$): 開發邏輯來估算或微調訓練集中的真實正樣本比例 prior probability ($\alpha$)。
-
模組整合: 在
trainer.py 中支援參數化選擇 criterion = 'PU_Loss',讓後續所有 GNN 架構都可以呼叫。
Acceptance Criteria
- 成功將學長的 PU Loss 從
Copied_resources/senior_exp/models_zebra.py 遷移。
- 證明 PU Loss 能在現有最佳模型上提升 Test F1 (特別是召回率 Recall 的提升)。
Goal
將 Positive-Unlabeled (PU) Loss 導入現有訓練管線。
Context
詐欺偵測資料集常存在「未標註」且可能為詐欺 (Hidden Positives) 的樣本。PU Learning 假設未標記資料為正負樣本的混合體。過去在
senior_exp中學長的 ZEBRA 模型使用了 PU Loss。Tasks
Phase4/preprocess_lib/losses.py中實作PU_Loss或nnPU_Loss。trainer.py中支援參數化選擇criterion = 'PU_Loss',讓後續所有 GNN 架構都可以呼叫。Acceptance Criteria
Copied_resources/senior_exp/models_zebra.py遷移。