인공 지능에서 설명할 권리 해독

게시 됨: 2020-10-31

AI 적용을 규제하는 가장 중요한 정책 개발 중 하나는 2018년 GDPR에 포함되었습니다.

오늘날 존재하는 다양한 내연 기관과 마찬가지로 AI 모델과 알고리즘은 복잡성 수준이 다양한 다양한 유형입니다.

AI는 의사결정을 할 때 인간처럼 의미를 부여하고 새로운 정보를 분류하지 않는다

대부분의 사람들에게 인공 지능은 기껏해야 챗봇이나 이미지 인식을 지원하는 기술입니다. 기본적으로 개와 고양이의 이미지를 구분하는 소프트웨어입니다. 다른 사람들은 그것을 일상적인 업무에 심각한 위협으로 간주합니다. 삶에 미치는 영향과 상관없이 사람들은 AI를 엄청난 미래 잠재력이 있는 기술로 봅니다. AI의 미래는 경외심과 두려움을 불러일으키지만 현재에 미치는 영향은 아직 많이 알려지지 않았습니다. 이력서 후보자 명단에서 선전 전파에 이르기까지 AI는 우리가 알고 있는 것보다 더 열심히 일하고 있습니다. 그 효과는 상당하며 전 세계의 지도자들은 이에 빠르게 각성하고 있습니다.

MIT AeroAstro 100주년 심포지엄 에서 규제 프레임워크에 대해 언급한 Elon Musk 는 다음과 같이 말했습니다. 아주 어리석은. 인공 지능으로 악마를 소환하고 있습니다. "

AI 적용을 규제하기 위한 가장 중요한 정책 개발 중 하나는 2018년 GDPR에 포함되었습니다. 본질적으로 GDPR의 섹션 4에 따른 22조에 따르면 직업, 대출 또는 시민권 신청이 점수에 따라 거부되는 경우 자동화된 지능형 처리 소프트웨어에 대해 설명을 요구할 권리가 있습니다. 규정을 준수하지 않으면 최대 2천만 유로 또는 회사의 글로벌 연간 매출의 4%에 달하는 벌금이 부과될 수 있습니다. 데이터를 기반으로 한 차별적인 행동 예측 및 고정 관념을 제거하는 것이 아이디어입니다. 그리고 그것은 한 마디로 설명할 권리입니다.

설명할 권리가 필요한 이유는 무엇입니까?

예측에 사용되는 점수는 관련이 없어 보이는 여러 변수의 평가 및 알고리즘 집합과의 관계를 기반으로 합니다. 사람의 개입이 없으면 결과가 때때로 불규칙할 수 있습니다. 선택하지 않으면 새로운 시대에 대한 고정 관념의 무대를 설정하고 기존 편견을 부채질할 수 있습니다. AI가 데이터와 함께 작동하는 동안 데이터 자체는 가장 강력한 AI 시스템에서도 실패하는 편향을 낳을 수 있습니다.

예를 들어, AI 기반 시스템에서 모기지 신청을 거부하면 의도하지 않은 결과가 발생할 수 있습니다. 과거 데이터를 기반으로 한 자가 학습 알고리즘은 신청자의 나이와 우편번호를 지난 분기에 대출을 연체한 사람들과 일치시킬 수 있습니다. 그렇게 하는 동안 과거 데이터에 없는 자산 품질과 같은 특정 유리한 기준을 간과할 수 있습니다.

타당한 설명이 없으면 거부는 고정관념과 차별에 대한 법적 조치를 요구할 수 있습니다. 특히 이웃에 소수 집단에 속하는 사람들이 대부분인 경우에는 더욱 그렇습니다. 따라서 AI는 인간을 대신하여 결정을 내릴 수 있는 잠재력이 있는 기술로서 인간 상호 작용에서 윤리, 공정성 및 정의를 제공해야 합니다. 최소한 다음 유형의 정의를 충족해야 합니다.

당신을 위해 추천 된:

인도에서 핀테크를 혁신하기 위해 RBI의 Account Aggregator 프레임워크 설정 방법

인도에서 핀테크를 혁신하기 위해 RBI의 Account Aggregator Framework를 설정하는 방법

기업가는 'Jugaad'를 통해 지속 가능하고 확장 가능한 스타트업을 만들 수 없습니다: CitiusTech CEO

기업가는 'Jugaad'를 통해 지속 가능하고 확장 가능한 스타트업을 만들 수 없습니다: Cit...

메타버스가 인도 자동차 산업을 어떻게 변화시킬 것인가?

메타버스가 인도 자동차 산업을 어떻게 변화시킬 것인가?

인도 스타트업에 대한 반 영리 조항은 무엇을 의미합니까?

인도 스타트업에 대한 반 영리 조항은 무엇을 의미합니까?

Edtech Startup이 기술 향상 및 인력을 미래에 대비할 수 있도록 지원하는 방법

Edtech Startup이 인도 인력의 기술 향상 및 미래 준비를 돕는 방법...

이번 주 새로운 시대의 기술 주식: Zomato의 문제는 계속되고 EaseMyTrip은 Str...

  • 분배 - 자원, 기회 및 보상의 사회적으로 정당한 할당
  • 절차적 – 결과에 도달하기 위한 공정하고 투명한 프로세스
  • 상호 작용 – 프로세스와 결과 모두 영향을 받는 사람들을 존엄성과 존중으로 대우해야 합니다.

설명에 대한 권리는 AI 사용에서 가장 중요한 정의의 고리를 닫습니다.

AI와 설명권에 대한 도전

오늘날 존재하는 다양한 내연 기관과 마찬가지로 AI 모델과 알고리즘은 복잡성 수준이 다양한 다양한 유형입니다. 선형 회귀와 같은 단순한 모델의 결과는 비교적 설명하기 쉽습니다. 관련된 변수, 가중치 및 출력 점수에 도달하기 위한 조합이 알려져 있습니다.

딥 러닝과 같은 복잡한 알고리즘은 정확도를 높이기 위해 노력하는 동시에 블랙박스 역할을 합니다. 스스로 학습하고 패턴을 구성하는 알고리즘을 사용하면 다음과 같은 이유로 특정 결과의 원인을 설명하기 어렵습니다.

  • 알고리즘에서 실제로 사용하는 변수는 알려져 있지 않습니다.
  • 변수에 첨부된 중요도/가중치는 역 계산할 수 없습니다.
  • 몇 가지 중간 구조 및 변수 간의 관계는 알려지지 않은 상태로 남아 있습니다.

대학 입학 절차가 전적으로 신경망에 의해 구동되었다면 지금보다 절차가 불투명했을 것입니다. 그들의 알고리즘이 특정 "배경"이 적합하지 않다고 판단하기 때문에 주요 대학의 자리를 거부당하기 때문에 "배경"의 어느 부분이 자신에게 불리하게 작용했는지 궁금할 것입니다. 설상가상으로 입학 위원회에서 이를 설명하지 못할 것입니다. 사회적 불평등이 만연한 상황에서 불투명한 AI는 대학이 마지막으로 요구하는 것이다.

반면에 완전히 투명한 AI는 알고리즘을 게임에 취약하게 만들고 전체 입학 프로세스를 하이재킹할 수 있습니다. 따라서 설명에 대한 권리는 AI가 적절한 정도의 반투명도를 달성하는 것에 관한 것입니다. 완전히 투명하거나 불투명할 수 없습니다.

앞으로의 길

인공지능은 의사결정을 할 때 인간처럼 의미를 부여하고 새로운 정보를 분류하지 않는다. 가장 일반적인 패턴을 강화하고 대다수가 아닌 경우를 제외합니다. 적극적으로 탐색되고 있는 가능한 기술 솔루션 중 하나는 AI를 설명 가능하게 만드는 것입니다. 설명 가능한 AI(XAI)는 솔루션에 대한 신뢰가 필수적인 의료 진단과 같은 관련 고위험 및 고부담 사용 사례에서 필수 불가결합니다. 내부 처리에 대한 충분한 투명성이 없으면 블랙박스 알고리즘은 생명을 구하는 데 필요한 수준의 신뢰를 제공하지 못합니다.

기술 및 통계 모두의 기본 아키텍처에 취약성이 너무 깊이 박혀 있기 때문에 AI는 규제가 필요합니다. 순다르 피차이(Sundar Pichai)는 올해 초 파이낸셜 타임즈(Financial Times )에서 “ 이제 인공 지능을 규제해야 한다는 데 의문의 여지가 없습니다. 하지 않는 것이 너무 중요합니다. 유일한 질문은 그것에 접근하는 방법입니다. "

AI를 규제하는 법적 프레임워크는 진화하고 있으며 세계 여러 지역에서 유동적인 상태에 있습니다.

인도에서는 몇 달 전에 개인 정보 보호 권리가 국가 토론의 ​​중심 무대가 되면서 AI를 규제하는 포괄적인 법률이 형성되기까지 멀지 않았습니다. 특히 2018년 6월 NITI Aayog에서 발표한 토론 논문에서는 주제를 상당히 자세하게 다루었습니다. 시간이 지남에 따라 AI의 영향 범위가 확대됨에 따라 이에 대응하여 더 많은 조항을 포함하도록 법률이 더욱 엄격해질 것입니다.

기술이 발전하고 새로운 응용 분야가 발견됨에 따라 업계의 자체 규제가 필요합니다. 조직은 신뢰와 이해를 기반으로 하는 상호 작용의 인간 본성을 보존하는 XAI 구현에 적극적으로 집중해야 합니다. 그렇지 않다면 선의의 보호법으로 인해 잠재적으로 삶을 변화시킬 수 있는 혁신이 방해받는 것을 막을 수 있습니다. 삶의 대부분의 것들이 그렇듯이, 해결책은 올바른 균형을 맞추는 데 있습니다.