ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • [미국] AI 권리장전(AI Bill of rights) 전반 요약
    > AI/주요국가 AI 규제 동향 2024. 6. 1. 12:06

     

    1. 안전 및 효과의 보장(Safe and Effectiveness system)

     

     1.1 적극적이고 지속적인 방식으로 피해로부터 사용자를 보호할 것

    • 상의. 자동화된 시스템 개발의 설계, 구현, 배포, 획득 및 유지 관리 단계에서 대중과 협의해야 하며, 시스템을 도입하거나 대규모 변경을 구현하기 전 초기 단계 협의에 중점을 두어야 합니다. 이 협의는 영향을 받는 다양한 커뮤니티를 직접 참여시켜 해당 커뮤니티에 고유할 수 있거나 불균형적으로 만연하거나 심각할 수 있는 우려 사항과 위험을 고려해야 합니다. 이러한 참여의 범위와 관련 이해관계자에 대한 지원 형태는 특정 자동화 시스템 및 개발 단계에 따라 다를 수 있지만, 주제, 부문별, 상황별 전문가는 물론 민사, 사회, 사회, 사회, 사회, 사회, 사회, 권리, 시민의 자유, 개인 정보 보호 전문가. 민간 부문 애플리케이션의 경우 제품 출시 전 상담은 기밀로 유지되어야 할 수 있습니다. 정부 애플리케이션, 특히 법 집행 애플리케이션이나 국가 안보 문제를 제기하는 애플리케이션에는 시스템 민감도와 기존 감독 법률 및 구조에 따라 기밀 또는 제한적인 참여가 필요할 수 있습니다. 이 협의에서 제기된 우려 사항은 문서화되어야 하며, 이 피드백을 기반으로 생성, 사용 또는 배포를 제안한 자동화 시스템 개발자가 재고되어야 합니다.
    • 테스트. 시스템은 배포하기 전에 광범위한 테스트를 거쳐야 합니다. 이 테스트는 기술이 실제 상황에서 작동하는지 확인하기 위해 가능한 경우 도메인별 모범 사례를 따라야 합니다. 이러한 테스트는 사용된 특정 기술과 시스템 결과 또는 효율성에 영향을 미치는 인간 운영자 또는 검토자의 역할을 모두 고려해야 합니다. 테스트에는 자동화된 시스템 테스트와 사람이 주도하는(수동) 테스트가 모두 포함되어야 합니다. 테스트 조건은 시스템이 배포될 조건과 최대한 유사해야 하며 배포 간 조건의 중요한 차이를 설명하기 위해 각 배포마다 새로운 테스트가 필요할 수 있습니다. 테스트 후에는 시스템 성능을 잠재적으로 사람이 주도하는 현 상태 절차와 비교해야 하며, 기존 사람의 성능은 배포 전 알고리즘을 충족하기 위한 성능 기준 및 수명주기 최소 성능 표준으로 간주됩니다. 성능 테스트로 인한 결정 가능성에는 시스템을 배포하지 않을 가능성도 포함되어야 합니다.
    • 위험 식별 및 완화. 배포하기 전에 사전 예방적이고 지속적인 방식으로 자동화 시스템의 잠재적 위험을 식별하고 완화해야 합니다. 식별된 위험은 사람들의 권리, 기회 또는 접근에 의미 있는 영향을 미칠 가능성에 초점을 맞춰야 하며 자동화 시스템의 직접적인 사용자가 아닐 수 있는 영향을 받는 커뮤니티에 대한 위험, 시스템의 의도적인 오용으로 인한 위험 및 상담과정. 가능한 경우 위험 영향에 대한 평가와 측정이 포함되고 균형을 이루어 영향이 큰 위험이 해당 영향에 비례하여 관심을 받고 완화되도록 해야 합니다. 타인의 안전을 침해하려는 의도를 가진 자동화 시스템을 개발하거나 사용해서는 안 됩니다. 의도하지 않은 결과가 확인된 안전 위반이 있는 시스템은 위험이 완화될 때까지 사용해서는 안 됩니다. 지속적인 위험 완화를 위해서는 출시된 자동화 시스템에 대한 롤백이나 상당한 수정이 필요할 수 있습니다.
    • 지속적인 모니터링. 자동화된 시스템에는 재보정 절차를 포함한 지속적인 모니터링 절차가 마련되어 있어야 하며, 실제 상황이나 배포 상황의 변화, 배포 후 수정 또는 예상치 못한 상황에 따라 시간이 지남에 따라 성능이 허용 가능한 수준 이하로 떨어지지 않도록 보장해야 합니다. 이러한 지속적인 모니터링에는 성능 지표 및 유해성 평가에 대한 지속적인 평가, 시스템 업데이트, 필요한 경우 기계 학습 모델 재교육뿐만 아니라 이전에 작동하던 시스템으로 되돌릴 수 있는 폴백 메커니즘이 마련되어 있는지 확인하는 것도 포함되어야 합니다. 모니터링에서는 기술 시스템 구성 요소(알고리즘, 하드웨어 구성 요소, 데이터 입력 등)와 작업자의 성능을 모두 고려해야 합니다. 여기에는 인간 운영자의 정확성 결정뿐만 아니라 시스템에서 생성된 예측 또는 권장 사항의 실제 정확성을 테스트하기 위한 메커니즘이 포함되어야 합니다. 지속적인 모니터링 절차에는 자동화된 모니터링 시스템에 결함이 있는 경우를 점검하기 위해 사람이 주도하는 수동 모니터링이 포함되어야 합니다. 이러한 모니터링 절차는 배포된 자동화 시스템의 수명 동안 시행되어야 합니다.
    • 명확한 조직 감독. 자동화 시스템의 개발이나 사용을 담당하는 주체는 명확한 거버넌스 구조와 절차를 마련해야 합니다. 여기에는 시스템을 배포하기 전에 명확하게 명시된 거버넌스 절차와 지속적인 평가 및 완화를 감독하는 특정 개인 또는 단체의 책임이 포함됩니다. 자동화되는 비즈니스 프로세스나 운영을 감독하는 사람을 포함한 조직의 이해관계자와 시스템 사용으로 인해 영향을 받을 수 있는 기타 조직 부서가 거버넌스 절차 수립에 참여해야 합니다. 자원, 완화, 사고 대응 및 잠재적인 롤백에 대한 결정을 즉시 내릴 수 있도록 조직의 책임은 충분히 높아야 하며, 경쟁 문제에 대한 위험 완화 목표에 충분한 가중치를 부여해야 합니다. 이 책임을 맡은 사람들은 위험 식별 절차에 따라 결정된 대로 사람들의 권리, 기회 또는 접근에 의미 있는 영향을 미칠 가능성이 있는 모든 사용 사례를 인식해야 합니다. 어떤 경우에는 배치 전에 독립적인 윤리 검토를 수행하는 것이 적절할 수도 있습니다.

    1.2 부적절하거나 품질이 낮거나, 관련성 없는 데이터를 사용하거나 재사용함으로써 발생하는 피해를 줄일 것

    • 관련성이 높은 고품질 데이터. 자동화 시스템의 생성, 평가 또는 배포의 일부로 사용되는 데이터는 관련성이 높고 품질이 높아야 하며 현재 작업에 맞게 조정되어야 합니다. 관련성은 특정 사용 사례에 대한 데이터의 인과적 영향에 대한 연구 기반 입증을 기반으로 설정되거나 해당 영역 및/또는 시스템 설계 또는 지속적인 개발에 대한 유용성에 대한 합리적인 기대를 기반으로 보다 일반적으로 정당화되어야 합니다. 데이터의 관련성은 결과에 대한 역사적 연관성을 호소하는 것만으로는 확립되어서는 안 됩니다. 고품질의 맞춤형 데이터는 당면한 작업을 대표해야 하며 데이터 입력 또는 기타 소스의 오류를 측정하고 제한해야 합니다. 예측 프로세스의 대상으로 사용되는 모든 데이터는 자동화 시스템의 목표가 적절하게 식별되고 측정되도록 보장하기 위해 예측 결과 또는 라벨의 품질과 유효성에 특별한 주의를 기울여야 합니다. 또한 자동화 시스템의 결과를 알리기 위해 해당 데이터를 사용하는 것이 왜 적절한지, 그리고 그러한 사용이 관련 법률을 위반하지 않는 이유를 설명하기 위해 각 데이터 속성 및 소스에 대한 타당성을 문서화해야 합니다. 고차원적 및/또는 파생된 속성의 경우 이러한 정당화는 속성 생성 프로세스 및 적절성에 대한 전반적인 설명으로 제공될 수 있습니다.
    • 파생된 데이터 소스를 주의 깊게 추적하고 검토했습니다. 이전 모델 출력에서 ​​파생되거나 추론된 데이터와 같이 알고리즘을 사용하여 다른 데이터에서 파생된 데이터는 예를 들어 데이터 스키마의 특수 유형을 통해 식별하고 추적해야 합니다. 파생 데이터는 피드백 루프, 복합적인 피해 또는 부정확한 결과를 초래할 수 있는 잠재적으로 위험한 입력으로 간주되어야 합니다. 이러한 소스는 부수적인 결과의 위험에 대해 신중하게 검증되어야 합니다.
    • 민감한 도메인의 데이터 재사용 제한. 데이터 재사용, 특히 새로운 맥락에서의 데이터 재사용으로 인해 피해가 확산되고 확대될 수 있습니다. 형사 사법 데이터와 금융, 고용, 주택과 같은 영역에서 불리한 결과를 나타내는 데이터를 포함한 일부 영역의 데이터는 특히 민감하며 어떤 경우에는 재사용이 법률에 의해 제한됩니다. 따라서 이러한 데이터는 안전성과 유효성을 보장하기 위해 추가적인 감독을 받아야 합니다. 다른 맥락에서 민감한 도메인 데이터의 데이터 재사용(예: 민사 법률 문제 또는 민간 부문 사용을 위한 범죄 데이터 재사용)은 해당 데이터의 사용이 법적으로 승인되고 조사 후 시스템의 영향을 받는 사람들에게 더 큰 이점이 있는 경우에만 발생해야 합니다. 식별된 위험과 식별된 위험을 완화하기 위해 적절한 조치가 구현되었습니다. 이러한 데이터에는 민감도에 따라 재사용이 제한된 상황을 식별할 수 있도록 명확하게 라벨이 지정되어야 합니다. 가능한 경우 집계된 데이터 세트는 개인 수준의 민감한 데이터를 대체하는 데 유용할 수 있습니다.

    1.3 시스템의 안전성과 효율성 입증

    • 독립적인 평가 . 자동화된 시스템은 독립적인 평가(예: 애플리케이션 프로그래밍 인터페이스를 통해)가 가능하도록 설계되어야 합니다. 연구원, 언론인, 윤리 검토 위원회, 일반 감사관 및 제3자 감사관과 같은 독립적인 평가자에게는 개인 정보 보호, 보안, 법률 또는 규정(포함)에 부합하는 방식으로 시스템 및 관련 데이터 샘플에 대한 액세스 권한이 부여되어야 합니다. , 예: 지적재산권법), 그러한 평가를 수행하기 위해. 평가를 위한 시스템 액세스가 다음과 같이 보장되도록 하는 메커니즘이 포함되어야 합니다. 시스템의 배포 준비 버전에 적시에 제공됩니다. 전체 시스템에 대한 순수하고 필터링되지 않은 액세스를 제공하는 것으로 신뢰됩니다. 합리적이고 검증된 정당성 없이 평가자의 액세스가 취소될 수 없도록 진정으로 독립적입니다.
    • 보고. [vii]자동화 시스템의 개발 또는 사용을 담당하는 기관은 다음을 포함하는 정기적으로 업데이트되는 보고서를 제공해야 합니다. 시스템 개요(조직의 비즈니스 프로세스 또는 기타 활동에 시스템이 포함되는 방식, 시스템 목표, 사람이 실행하는 절차 포함) 시스템의 일부를 구성하고 특정 성과 기대치를 형성합니다. 데이터 소스가 처리 및 해석되는 방법, 누락되거나 불완전하거나 오류가 있을 수 있는 데이터에 대한 요약, 데이터 관련성 근거를 포함하여 기계 학습 모델을 교육하거나 기타 목적으로 사용되는 데이터에 대한 설명 제기된 우려 사항 및 이러한 우려로 인해 내려진 결정 등 공개 협의 결과 위험 식별 및 관리 평가와 잠재적 피해를 완화하기 위해 취한 조치 정확성, 인구통계학적 영향 차이, 결과 오류율(전체 및 인구통계학적 그룹별) 및 이전에 배포된 시스템과의 비교를 포함하되 이에 국한되지 않는 성능 테스트 결과 모니터링 빈도, 결과 및 취해진 조치를 포함하여 지속적인 모니터링 절차 및 정기적인 성능 테스트 보고서 독립적인 평가를 위한 절차와 결과. 보고는 일반 언어로 기계가 읽을 수 있는 방식으로 제공되어야 합니다.

     

     


     

     

    2. 알고리즘적 차별 금지(Algorithmic Discrimination Protections)

     

    • 디자인의 형평성을 적극적으로 평가합니다. 자동화 시스템의 개발, 사용 또는 감독을 담당하는 사람들은 기술 연구 및 개발의 설계 단계에서 또는 인수 중에 사전 형평성 평가를 수행하여 잠재적인 입력 데이터, 관련 역사적 맥락, 장애인에 대한 접근성 및 사회적 환경을 검토해야 합니다. 기술 도입으로 인해 발생할 수 있는 차별과 형평성에 미치는 영향을 식별하는 것이 목표입니다. 평가 대상 그룹은 형평성 정의에 언급된 소외된 지역사회(흑인, 라틴계, 아메리카 원주민, 아시아계 미국인, 태평양 섬 주민, 기타 유색 인종)를 최대한 포함해야 합니다. 종교적 소수자; 여성, 소녀, 논바이너리(non-binary) 사람들; 레즈비언, 게이, 양성애자, 트랜스젠더, 퀴어, 간성(LGBTQI+) 사람; 노인; 장애인; 농촌 지역에 거주하는 사람; 지속적인 빈곤이나 불평등으로 인해 부정적인 영향을 받는 사람. 평가에는 시스템의 정성적 평가와 정량적 평가가 모두 포함될 수 있습니다. 또한 이러한 형평성 평가는 안전성 및 유효성 검토의 일부로 수행되는 협의 목표의 핵심 부분으로 간주되어야 합니다.
    • 대표적이고 강력한 데이터. 시스템 개발 또는 평가의 일부로 사용되는 모든 데이터는 계획된 배포 설정을 기반으로 지역 사회를 대표해야 하며 데이터의 역사적, 사회적 맥락을 기반으로 편견을 검토해야 합니다. 이러한 데이터는 편견과 잠재적인 피해를 식별하고 완화하는 데 도움이 될 만큼 충분히 강력해야 합니다.
    • 프록시로부터 보호합니다.   자동화 시스템의 설계, 개발 또는 배포(차별에 대한 시스템 평가 또는 차별에 대응하기 위한 시스템 사용 이외의 목적)에 인구통계 정보를 직접 사용하는 것은 알고리즘 차별로 이어질 위험이 높으므로 피해야 합니다. 많은 경우 프록시라고 알려진 인구통계학적 특징과 높은 상관관계가 있는 속성이 알고리즘 차별에 기여할 수 있습니다. 인구통계학적 특징의 사용 자체가 불법적인 알고리즘 차별로 이어질 수 있는 경우, 의사결정에서 그러한 프록시(예: 알고리즘에 의해 촉진되는 것)에 의존하는 것도 법으로 금지될 수 있습니다. 시스템 설계, 개발 또는 사용의 일부로 사용되는 모든 데이터의 인구통계학적 정보와 속성 간의 상관관계를 테스트하여 프록시를 식별하기 위해 사전 테스트를 수행해야 합니다. 프록시가 식별되면 디자이너, 개발자 및 배포자는 프록시를 제거해야 합니다. 필요한 경우 대신 사용할 수 있는 대체 속성을 식별하는 것이 가능할 수도 있습니다. 최소한 조직은 프록시 기능에 과도한 가중치가 부여되지 않도록 해야 하며 결과적인 알고리즘 차별이 있는지 시스템을 면밀히 모니터링해야 합니다.  
    • 설계, 개발, 배포 중에 접근성을 보장합니다. 시스템은 장애인의 접근성을 보장하는 방식으로 조직에서 설계, 개발 및 배포해야 합니다. 여기에는 자동화된 시스템의 사용 또는 효율성에 대한 접근성 장벽을 식별하고 해결하기 위해 배포 전후에 다양한 장애, 관련 접근성 표준 준수, 사용자 경험 조사가 포함되어야 합니다.
    • 격차 평가. 자동화된 시스템은 배포 전 테스트와 상황 내 배포 모두에서 시스템 구성 요소가 불일치를 생성하는지 여부를 평가하기 위해 광범위한 측정 세트를 사용하여 테스트해야 합니다. 평가 대상 그룹의 인구통계는 인종, 피부색, 민족, 성별(임신, 출산 및 관련 질병, 성 정체성, 간성 상태, 성적 취향 포함), 종교, 연령, 출신 국가, 장애 등을 최대한 포함해야 합니다. , 퇴역 군인 신분, 유전 정보 또는 법으로 보호되는 기타 분류. 평가되는 광범위한 측정에는 인구통계학적 성과 측정, 전체 및 하위 그룹 동등성 평가, 조정이 포함되어야 합니다. 격차 평가를 위해 수집된 인구통계 데이터는 자동화 시스템에 사용되는 데이터와 분리되어야 하며 개인정보 보호 조치가 시행되어야 합니다. 어떤 경우에는 데이터 샘플을 사용하여 그러한 평가를 수행하는 것이 합리적일 수 있습니다. 배포된 자동화 시스템이 식별된 그룹에 불리한 대우나 영향을 미치는 모든 경우에 대해 시스템을 관리, 구현 또는 사용하는 주체는 시스템의 지속적인 사용에 대한 차이와 정당성을 문서화해야 합니다.
    • 격차 완화. 격차 평가를 통해 평가 대상 그룹에 대한 격차가 확인되면 격차를 완화하거나 제거하기 위한 조치를 취하는 것이 적절할 수 있습니다. 어떤 경우에는 법률에 따라 격차를 완화하거나 제거해야 할 수도 있습니다. 알고리즘 차별로 이어지거나, 의미 있는 피해를 입히거나, 형평성[xx] 목표를 위반할 가능성이 있는 격차는 완화되어야 합니다. 자동화된 시스템을 설계하고 평가할 때 여러 모델을 평가하고 부정적인 영향이 가장 적은 모델을 선택하고, 데이터 입력 선택을 수정하거나, 차이가 적은 시스템을 식별하는 단계를 수행해야 합니다. 격차를 적절히 완화할 수 없는 경우 자동화 시스템의 사용을 재고해야 합니다. 시스템 사용 여부를 고려할 때 고려해야 할 사항 중 하나는 목표 측정의 유효성입니다. 관찰할 수 없는 대상으로 인해 프록시가 부적절하게 사용될 수 있습니다. 이러한 표준을 충족하려면 알고리즘 차별을 해결하고 의미 있는 피해를 피하며 형평성 목표를 달성하기 위한 완화 절차 및 기타 보호 조치를 마련해야 할 수 있습니다.
    • 지속적인 모니터링 및 완화. 자동화된 시스템을 정기적으로 모니터링하여 배포 전 테스트 중에 설명되지 않은 불평등, 배포 후 시스템 변경, 사용 컨텍스트 또는 관련 데이터 변경과 시스템의 예상치 못한 상호 작용으로 인해 발생할 수 있는 알고리즘 차별을 평가해야 합니다. 모니터링 및 차이 평가는 자동화 시스템을 배포하거나 사용하는 주체가 수행하여 배포 시 시스템이 알고리즘 차별로 이어졌는지 여부를 조사해야 합니다. 이 평가는 정기적으로 그리고 비정상적인 결과 패턴이 발생할 때마다 수행되어야 합니다. 예를 들어 사용자 샘플을 대상으로 한 테스트나 질적 사용자 경험 연구를 통해 영향을 받은 사람들의 인구통계학적 정보를 사용할 수 있는지 여부와 사용 방법을 고려하여 다양한 접근 방식을 사용하여 수행할 수 있습니다. 더 위험하고 영향이 더 큰 시스템은 더 자주 모니터링하고 평가해야 합니다. 이 평가의 결과에는 필요한 경우 추가적인 불균형 완화가 포함되어야 하며, 형평성 기준이 더 이상 충족되지 않고 완화될 수 없는 경우 이전 절차로 대체해야 하며, 이전 메커니즘은 형평성 기준을 더 잘 준수하도록 제공해야 합니다.

    시스템이 알고리즘 차별로부터 보호함을 입증

    • 독립적인 평가. 안전하고 효과적인 시스템 섹션에 설명된 대로 기업은 자신이 사용하거나 감독하는 자동화 시스템으로 인해 발생할 수 있는 잠재적인 알고리즘 차별에 대한 독립적인 평가를 허용해야 합니다. 공공 부문에서 사용하는 경우 법 집행이나 국가 안보 제한으로 인해 금지되지 않는 한 이러한 독립적인 평가는 공개되어야 합니다. 개인의 개인 정보 보호와 평가 데이터 액세스 요구 사항의 균형을 맞추는 데 주의를 기울여야 합니다. 많은 경우 정책 기반 및/또는 기술 혁신과 통제를 통해 개인정보 보호를 침해하지 않고 해당 데이터에 대한 액세스가 허용됩니다.
    • 보고 . 자동화 시스템의 개발 또는 사용을 담당하는 기관은 누가 평가를 수행하고, 누가 시스템을 평가하며, 이에 대한 시정 조치가 어떻게 취해지는지에 대한 명확한 사양과 함께 적절하게 설계된 알고리즘 영향 평가에 대한 보고를 제공해야 합니다.[xxi] 평가에. 이 알고리즘 영향 평가에는 최소한 상담 결과, 설계 단계 형평성 평가(잠재적으로 정성적 분석 포함), 접근성 설계 및 테스트, 불일치 테스트, 남아 있는 불일치 문서화, 완화 구현 및 평가 세부 사항이 포함되어야 합니다. 이 알고리즘 영향 평가는 가능할 때마다 공개되어야 합니다. 보고는 보다 직접적인 공개 책임을 허용하기 위해 일반 언어를 사용하여 명확하고 기계가 읽을 수 있는 방식으로 제공되어야 합니다.

     

     


    3. 데이터 프라이버시

    https://zrungee.tistory.com/608


    4. 설명 가능성(Notice and Explanation)

     

    4.1 명확하고 시의적절하며 이해하기 쉽고 접근 가능한 사용 통지 및 설명 제공

    • 일반적으로 접근 가능한 일반 언어 문서. 자동화 시스템 사용을 담당하는 주체는 전체 시스템(인간 구성요소 포함)을 설명하는 문서가 공개되고 쉽게 찾을 수 있도록 보장해야 합니다. 문서에는 시스템 작동 방식과 자동화된 구성 요소가 작업이나 결정을 결정하는 데 사용되는 방식을 일반 언어로 설명해야 합니다. 또한 알고리즘 차별 보호의 일부로 설명된 알고리즘 영향 평가와 같이 이 프레임워크 전체에 설명된 보고에 대한 기대 사항도 포함되어야 합니다.
    • 책임이 있습니다. 통지에는 시스템의 각 구성 요소를 설계하는 주체와 이를 사용하는 주체가 명확하게 식별되어야 합니다.
    • 적시에 최신 정보를 제공합니다. 사용자는 기술을 사용하기 전에 또는 기술의 영향을 받는 동안 자동화 시스템의 사용에 대한 통지를 받아야 합니다. 결정 자체와 함께 또는 결정 직후에 설명이 제공되어야 합니다. 공지는 최신 상태로 유지되어야 하며 시스템의 영향을 받는 사람들에게 사용 사례 또는 주요 기능 변경 사항을 알려야 합니다.
    • 간단하고 명확합니다. 자동화 시스템을 사용하거나 영향을 받는 사람들이 알림과 설명을 쉽게 찾고, 빠르게 읽고, 이해하고 조치를 취할 수 있도록 사용자 테스트를 포함한 사용자 경험에 대한 조사 등을 통해 알림과 설명을 평가해야 합니다. 그들을. 여기에는 장애가 있는 사용자가 통지 및 설명에 접근할 수 있고 청중에게 적합한 언어 및 읽기 수준으로 제공되도록 보장하는 것이 포함됩니다. 이러한 기대에 부응하고 미국 대중이 접근할 수 있도록 공지 및 설명은 다양한 형식(예: 종이, 실제 표지판 또는 온라인)으로 제공되어야 할 수 있습니다.

    4.2 자동화된 시스템이 결정을 내리거나 조치를 취한 방법과 이유에 대한 설명 제공

    • 목적에 맞게. 설명은 사용자가 설명을 사용할 것으로 예상되는 특정 목적에 맞게 조정되어야 하며 해당 목적을 명확하게 명시해야 합니다. 정보 제공 설명은 상환 가능성, 항소 가능성을 허용하기 위해 제공되는 설명 또는 분쟁이나 이의 제기 절차의 맥락에서 제공되는 설명과 다를 수 있습니다. 이 프레임워크의 목적을 위해 '설명'은 광범위하게 해석되어야 합니다. 설명은 인과관계에 대한 평이한 진술일 필요는 없지만, 수신자가 명시된 목적을 달성하는 데 필요한 이해와 직관을 구축할 수 있도록 하는 모든 메커니즘으로 구성될 수 있습니다. 맞춤화는 평가되어야 합니다(예: 사용자 경험 조사를 통해).
    • 설명의 대상에 맞게 조정되었습니다. 설명은 특정 청중을 대상으로 해야 하며 해당 청중을 명확하게 명시해야 합니다. 결정 주제에 대해 제공되는 설명은 옹호자, 도메인 전문가 또는 의사 결정자에게 제공되는 설명과 다를 수 있습니다. 맞춤화는 평가되어야 합니다(예: 사용자 경험 조사를 통해).
    • 위험 수준에 맞춰 조정됩니다. 자동화 시스템의 위험 수준을 결정하기 위해 평가를 수행해야 합니다. 위험 평가에 따라 결과가 높거나 광범위한 감독이 예상되는 환경(예: 형사 사법 또는 일부 공공 부문 환경)에서는 시스템의 전체 동작을 설명할 수 있도록 설명 메커니즘을 시스템 설계에 구축해야 합니다. 결정 후 해석보다는 사전에(즉, 완전히 투명한 모델만 사용해야 함) 다른 상황에서는 제공되는 설명의 범위가 위험 수준에 맞게 조정되어야 합니다.
    • 유효한. 시스템에서 제공하는 설명은 특정 결정을 내린 요인과 영향을 정확하게 반영해야 하며, 목적, 대상 및 위험 수준을 기반으로 특정 사용자 정의에 의미가 있어야 합니다. 설명 목적과 설명 대상을 기반으로 시스템이 성공하거나 의사 결정 정보 공개와 관련된 사기 위험 또는 기타 우려 사항을 설명하기 위해 근사화 및 단순화가 필요할 수 있지만 이러한 단순화는 과학적으로 수행되어야 합니다. 지원 가능한 방식입니다. 설명 시스템을 기반으로 적절한 경우 설명에 대한 오류 범위를 계산하고 설명에 포함해야 하며, 유용성 및 전반적인 인터페이스 복잡성 문제와 균형을 이루는 정보 표시 선택이 필요합니다.

    4.3 통지 및 설명에 대한 보호 입증

    • 보고. 요약 보고는 다음을 포함하여 위의 고려 사항을 기반으로 내린 결정을 문서화해야 합니다. 시스템, 식별된 사용자 및 영향을 받는 인구의 목표 및 사용 사례 통지의 명확성과 적시성에 대한 평가 설명의 타당성과 접근성에 대한 평가; 위험 수준 평가; 목적, 설명 수신자 및 위험 수준을 포함하여 설명이 어떻게 맞춤화되는지에 대한 설명 및 평가. 시스템에 미치는 영향이나 추론에 대한 설명을 포함하여 개별화된 프로필 정보를 최대한 쉽게 사용할 수 있어야 합니다. 보고는 명확하고 평이한 언어로 기계가 읽을 수 있는 방식으로 제공되어야 합니다.

    5. 인간 대체 방지 및 의사결정의 투명성(Human Alternatives, Consideration, and Fallback)

    5.1 적절한 경우 인간의 대안을 선호하여 자동화 시스템을 편리하게 거부할 수 있는 메커니즘을 제공

    • 간단하고 명확하며 접근 가능한 통지 및 지침. 자동화된 시스템의 영향을 받는 사람들에게는 선택 해제 방법에 대한 명확한 지침과 함께 선택 해제할 자격이 있다는 간단하고 명확한 통지가 제공되어야 합니다. 지침은 접근 가능한 형식으로 제공되어야 하며 자동화 시스템의 영향을 받는 사람들이 쉽게 찾을 수 있어야 합니다. 통지 및 지침의 간결성, 명확성 및 접근성을 평가해야 합니다(예: 사용자 경험 조사를 통해).
    • 적절한 경우 인간의 대안이 제공됩니다. 많은 시나리오에서 권리, 기회 또는 접근권을 획득하는 데 인간이 참여할 것이라는 합리적인 기대가 있습니다. 자동화된 시스템이 달성 프로세스의 일부를 구성하는 경우 적시에 인간이 주도하는 대체 프로세스가 제공되어야 합니다. 인간 대안의 사용은 거부 프로세스에 의해 시작되어야 합니다.
    • 시의적절하고 부담스럽지 않은 인간 대안. 옵트아웃은 시기적절해야 하며 옵트아웃을 요청하는 과정과 제공된 인간 중심 대안 모두에서 부당하게 부담을 주어서는 안 됩니다.

    5.2 자동화된 시스템이 실패하거나, 오류가 발생하거나, 해당 시스템이 귀하에게 미치는 영향에 대해 이의를 제기하거나 이의를 제기하려는 경우 대체 및 에스컬레이션 시스템을 통해 시기적절한 인간적 배려와 구제책을 제공

    • 균형 잡히게 하다. 인간의 편견에 대한 관련 교육 및 보호 장치와 함께 인간의 배려와 대체의 가용성은 권리, 기회 또는 접근에 의미 있는 영향을 미치는 자동화 시스템의 잠재력에 비례해야 합니다. 결과에 대한 더 큰 통제력을 갖고, 고위험 결정에 대한 입력을 제공하고, 민감한 영역과 관련되거나, 권리, 기회 또는 접근에 의미 있는 영향을 미칠 수 있는 더 큰 잠재력을 가진 자동화 시스템은 더 큰 가용성(예: 직원 배치)과 인간에 대한 감독을 가져야 합니다. 고려 사항 및 대체 메커니즘.
    • 얻기 쉬운. 대면, 서면, 전화 등을 통해 인간의 배려와 대응을 위한 메커니즘은 쉽게 찾고 사용할 수 있어야 합니다. 이러한 메커니즘은 자동화된 시스템에 문제가 있는 사용자가 인간의 지원이 가장 필요할 가능성이 가장 높은 사용자일 수 있다는 점을 이해하면서 인간의 배려와 대체를 사용할 수 있는지 확인하기 위해 테스트되어야 합니다. 마찬가지로, 장애가 있는 사용자가 인간적 배려와 대체 조치를 찾아 사용할 수 있는지 확인하고 합리적인 편의나 수정을 요청할 수도 있는지 테스트해야 합니다.
    • 편리한. 인간의 고려와 대체를 위한 메커니즘은 자동화된 시스템과 비교할 때 불합리하게 부담스러워서는 안 됩니다.
    • 공정한. 대체 및 에스컬레이션 시스템의 결과가 자동화된 시스템의 결과와 비교할 때 공평하도록 보장하고 대체 및 에스컬레이션 시스템이 서비스가 부족한 커뮤니티에 공평한 액세스를 제공하도록 고려해야 합니다.[ix]
    • 시기 적절한. 인간적인 배려와 대체는 시기적절하게 수행되고 결론이 나는 경우에만 유용합니다. 시기적절한 결정은 특정 자동화 시스템과 관련하여 이루어져야 하며, 검토 시스템에는 인력을 배치하고 정기적으로 평가하여 적시에 고려 사항과 대체 서비스를 제공하는지 확인해야 합니다. 시간이 중요한 시스템에서는 이 메커니즘을 즉시 사용할 수 있어야 하며, 가능한 경우 피해가 발생하기 전에 사용할 수 있어야 합니다. 시간이 중요한 시스템에는 투표 관련 시스템, 자동화된 건물 접근 및 기타 접근 시스템, 의료의 중요한 구성 요소를 구성하는 시스템, 임금을 보류하거나 즉각적인 금전적 처벌을 초래할 수 있는 시스템이 포함되지만 이에 국한되지는 않습니다.
    • 효과적인. 고려 및 대체 프로세스를 둘러싼 조직 구조는 결정을 재평가하는 책임을 맡은 인간 의사결정자가 해당 결정을 기각해야 한다고 결정하는 경우 새로운 결정이 효과적으로 실행될 수 있도록 설계되어야 합니다. 여기에는 새로운 결정이 구성 요소 전반에 걸쳐 자동화된 시스템에 입력되고, 이전 결정으로 인한 이전 영향도 뒤집히고, 향후 결정으로 인해 동일한 오류가 발생하지 않도록 보장하는 보호 장치가 마련되어 있는지 확인하는 것이 포함됩니다.
    • 유지됩니다. 관련 자동화 시스템이 계속 사용되는 한 인간적 배려와 대체 프로세스 및 관련 자동화 프로세스는 유지되고 지원되어야 합니다.

    5.3 자동화 편견에 맞서 싸우고 시스템의 인간 기반 구성 요소가 효과적인지 확인하기 위한 교육, 평가 및 감독을 실시

    • 훈련 및 평가. 자동화 시스템의 출력을 관리, 상호 작용 또는 해석하는 사람은 의도된 목적에 따라 시스템의 출력을 적절하게 해석하는 방법과 자동화 편향의 영향을 완화하는 방법을 포함하여 해당 시스템에 대한 교육을 받아야 합니다. 교육은 시스템을 최신 상태로 유지하고 시스템이 적절하게 사용되도록 정기적으로 반복되어야 합니다. 인간이 관여하는 시스템의 사용이 적절한 결과를 제공하는지 확인하기 위해 평가가 지속적으로 이루어져야 합니다. 즉, 인간의 참여가 안전하고 효과적인 시스템 평가를 무효화하거나 알고리즘 차별로 이어지지 않도록 해야 합니다.
    • 감시. 인간 기반 시스템은 자동화 편향을 포함한 편향 가능성과 효율성을 제한할 수 있는 기타 우려 사항을 가지고 있습니다. 이러한 인간 기반 시스템의 효율성 및 잠재적 편향에 대한 평가 결과는 이러한 영향을 완화하기 위해 인간 기반 시스템의 운영을 업데이트할 수 있는 가능성이 있는 거버넌스 구조에 의해 감독되어야 합니다.

    5.4 민감한 도메인과 관련된 자동화 시스템에 대한 추가 인간 감독 및 보호 조치를 구현

    형사 사법, 고용, 교육, 건강 등 민감한 영역 내에서 사용되는 자동화 시스템은 이 프레임워크 전반에 걸쳐 제시된 기대치를 충족해야 하며, 특히 이러한 기술의 변덕스럽고 부적절하며 차별적인 영향을 피해야 합니다. 또한 민감한 도메인 내에서 사용되는 자동화 시스템은 다음 기대치를 충족해야 합니다.

    • 좁은 범위의 데이터 및 추론. 인간의 감독은 민감한 도메인의 자동화 시스템이 정의된 목표를 달성하기 위해 좁은 범위로 지정되고, 포함된 각 데이터 항목 또는 속성이 특정 사용 사례와 관련된 것으로 정당화되도록 보장해야 합니다. 포함된 데이터는 커뮤니티 특성, 소셜 네트워크 분석 또는 그룹 기반 추론의 사용으로 인한 알고리즘 차별을 피하기 위해 신중하게 제한되어야 합니다.
    • 상황에 맞게 조정됩니다. 인간의 감독은 민감한 영역의 자동화된 시스템이 특정 사용 사례 및 실제 배포 시나리오에 맞게 조정되었는지 확인해야 하며, 평가 테스트에서는 시스템이 해당 특정 상황에 대해 안전하고 효과적인지 보여주어야 합니다. 한 위치나 사용 사례를 기반으로 수행된 검증 테스트를 다른 위치나 사용 사례로 이전한다고 가정해서는 안 됩니다.
    • 위험성이 높은 결정을 내리기 전에 인간적인 배려를 하세요. 민감한 영역에서 사용되는 자동화 시스템은 영향을 받은 사람들에게 정보를 직접 제공하거나 긍정적인 결과를 제공하는 역할을 할 수 있습니다. 그러나 자동화 시스템이 선고 결정이나 의료 등 고위험 상황에 사람의 배려 없이 직접 개입하는 것을 허용해서는 안 된다.
    • 시스템을 검사하기 위한 의미 있는 액세스입니다. 자동화 시스템의 설계자, 개발자 및 배포자는 지적 재산권 및 영업 비밀을 부당한 공개로부터 보호하기 위한 조치를 통합하여 민감한 도메인에서 사용되는 시스템에 대한 의미 있는 감독을 제공하기 위해 필요한 경우 기밀 유지(영업 비밀 관련 사항 포함)에 대한 제한적인 포기를 고려해야 합니다. 적절한. 여기에는 유효한 기밀 유지 또는 법원 명령에 따라 관련 법적 증거 자료 제출 중에 소스 코드, 문서 및 관련 데이터에 대한 의미 있는 액세스(잠재적으로 비공개 및 보호됨)가 포함됩니다. 이러한 의미 있는 접근에는 최고 수준의 위험을 사용하여 통지 및 설명에 대한 원칙을 준수하여 시스템이 내장된 설명으로 설계되는 것을 포함해야 합니다(이에 국한되지 않음). 이러한 시스템은 모델을 직접 조사해야 하는 사람들이 모델 자체를 이해할 수 있는 완전히 투명한 모델을 사용해야 합니다.

    5.5 인간의 대안, 고려사항 및 대체에 대한 접근

    • 보고. 보고에는 적시성 평가, 인간 대안에 대한 추가 부담 정도, 인간 대안을 선택하는 사람에 대한 집계 통계, 통지의 간결성, 명확성, 접근성 및 거부 지침에 대한 평가 결과가 포함되어야 합니다. 접근성, 적시성, 인적 고려 및 대체의 효율성에 대한 보고는 시스템이 사용되는 동안 정기적으로 공개되어야 합니다. 여기에는 고려 요청의 수와 유형, 사용된 대체 요청, 반복 요청에 대한 집계된 정보가 포함되어야 합니다. 다양한 유형의 요청에 대한 평균 대기 시간과 최대 대기 시간을 포함한 이러한 요청 처리의 적시성 접근성 평가 결과와 함께 고려 요청을 처리하는 데 사용되는 절차에 대한 정보. 민감한 영역에서 사용되는 시스템의 경우 보고에는 이러한 기술에 대한 교육 및 거버넌스 절차에 대한 정보가 포함되어야 합니다. 보고에는 목표 문서화, 목표 달성 평가, 포함된 데이터 고려, 기술에 대한 합리적인 접근 관리에 대한 문서화도 포함되어야 합니다. 보고는 명확하고 기계가 읽을 수 있는 방식으로 제공되어야 합니다.

     

     

    https://www.whitehouse.gov/ostp/ai-bill-of-rights/

     

    728x90
    반응형
Designed by Tistory.