AI·SW 안전성 보장을 위하여
기존의 ISO/IEC 42001 AI 경영시스템 인증 또는
데이터 분석, 데이터 모델 등의 시험보다는
인공지능 안전경영프로세스, 인공지능 안전수명주기,
인공지능 품질요구사항인 안전성 수준(AISL),
성능수준(AIPL), 공정성수준(AIFL)을 시험, 심사, 평가하여
AI·SW 안전성 확보에 특화된 국제표준과 AI 검증 가이드에 의거
국제적으로 AI·SW 안전성과 신뢰성을 제공하고자 3개 기관 연합(FKII, TESTWORKS, KIWA)하여
총 6개의 AI·SW 안전성 인증 제도를 운영합니다.
최근 안전과 관련된 산업분야(자동차, 로봇, 의료기기, 철도, 항공, 제조장치) 등에 사용되는 AI와 SW에서 인간에게 위협이 되는 동작을 일으키지 않도록 안전성이 확보된 알고리즘이나 정책의 중요성이 강화되고 있습니다.
AI 및 SW의 예기치 않은 오류나 취약점으로 인한 사고 방지와 위험 요소를 개선하고 안전성을 확보하기 위해 AI·SW의 안전성 인증은 필수적입니다.
* 위 과정은 시험 및 심사 종류에 따라 일부 변경될 수 있습니다.
AI 품질 구현의 전체 구조
AISL(AI safety levels)
AISL은 (4, 3, 2, 1, 0.2, 0.1, 0) 7개의 수준으로 분류되며 주어진 두 개의 표를 사용해서 수준을 결정됩니다.
이 지침은 4 또는 3 수준이 직접적으로 ML에 할당되는 것을 기대하지 않고 그렇게 해야 한다면 시스템 설계를 재검토해야 합니다.
AIPL(AI Performance levels) : 성능/유용성
AIFL(AI Fairness levels) : 공정성
Copyright(c) 한국정보산업연합회 INC. All Rights Reserved. Design by way21