https://github.com/Trusted-AI/adversarial-robustness-toolbox Trusted-AI/adversarial-robustness-toolbox Adversarial Robustness Toolbox (ART) - Python Library for Machine Learning Security - Evasion, Poisoning, Extraction, Inference - Red and Blue Teams - Trusted-AI/adversarial-robustness-toolbox github.com IBM사에서 오픈소스로 개발을 진행하고 있는 Adversarial Robustness Toolbox(이하 ART)를 사용한 AI 모델 보안 강화에 관한 포스팅입니다..