본문 바로가기
코인 핀테크

법!기계와 인간이 공존하는 미래에 대비하라

by zozogap 2022. 11. 1.
반응형

혁신성장과 미래 트렌드

법! 기계와 인간이 공존하는 미래에 대비하라

 선진국, 이미 새로운 규범체계를 준비하다  왜 인공지능 사고에 대한 법적 책임을 묻기 어려울까  자율주행차의 책임 법제 쟁점을 진단하다  인공지능 기반 의료 서비스의 책임 법제 쟁점을 진단하다

 

“의사 시험에 합격하였습니다.” 합격 통지를 받은 대상은 사람이 아니라 인공지능 로봇 ‘샤오이’다. 중국의 칭화대학교와 한 기업이 공동 개발한 ‘샤오이’는 2017년 8월 합격선인 360점 을 훌쩍 넘은 456점을 받아 국가 임상의사 종합시험에 합격하였다. 몇 년 전만 해도 대부분의 사람들에게 생소하였던 인공지능이 이제는 일 상에 스며들고 있다. 운전, 물류 처리, 공정 관리 등 많은 영역에서 인공지능 이 활용되며 다양한 변화를 가져오는 중이다. 독일의 도시 바트 비른바흐에 서는 자율주행 버스가 운행을 시작하였고, 미국 위스콘신주 대법원은 인공 지능 분석 자료를 판단의 근거자료로 활용하였다. 인공지능 기술이 실생활에 널리 활용되는 가운데, 기존과 다른 새로운 유 형의 사고가 발생하기 시작했다. 자율주행차가 충돌 사고를 일으키고, 경비 로봇이 유아를 공격하여 상해를 입혔으며, 텔레비전의 아나운서 멘트로 인해 원하지 않은 물건이 자동으로 주문되기도 했다. 이러한 사고가 향후에 더 많이 발생할 것으로 우려됨에 따라 인공지능 기술로 인한 피해의 공평한 손해 분담을 위한 책임 법제 검토가 필요하다는 공감대가 형성되고 있다. 현 법체계는 의사 결정의 주체를 인간으로 한정하 고, 인간(경우에 따라서는 법인)이 결정에 대한 책임을 부담한다. 하지만 급격하게 발전하는 인공지능 기술은 이와 다르게 의사 결정의 주체를 확장함으로써 과거와 다른 차원의 문제를 제기한다. 인공지능이 잘못된 의사 결정을 할 수 있음에도 불구하고 법인격이 없는 인공지능에게 책임을 물을 수 없기 때문이다.

 

이 문제를 어떻게 풀어갈지 사회적 논의가 이루어지지 않으면 기술이 확 산 됨에 있어 큰 제약을 받을 것이다. 인공지 능 기술 발전과 그에 따른 사회 변화 속도를 생각하면, 이제 이 논의를 늦출 수 없다. 어떤 책임 문제가 발 생하고 누가 책임을 져야 하는 것일까? 주요 분야별 책임법제 쟁점을 진단 하며 앞으로 어떻게 나아가야 인공지능 시대의 위험성과 불명확성을 줄일 수 있을지 모색해 본다.

 

선진국, 이미 새로운 규범 체계를 준비하다 구글, 마이크로소프트 등 주요 글로벌 IT 기업들은 ‘모바일 우선’에서 ‘인 공지능 우선’으로의 변화를 선언하였고 주요국은 앞다투어 인공지능에 연구 역량을 집중하고 있다. 정부 및 기업의 집중적인 투자에 힘입어 인공지능 시 대가 예상보다 빨리 도래할 것으로 예상되는 가운데 선진국은 이를 대비하 기 위한 새로운 규범 체계를 준비하고 있다. 유럽은 가장 선제적으로 인공지능 시대의 법적 프레임워크를 마련하고 있다. 유럽은 2012년부터 「RoboLaw 프로젝트」를 통해 로봇 기술의 법적·윤 리적 이슈를 검토하였다. 공학, 법학, 철학 등 다양한 분야의 전문가들이 이 프로젝트에 참여하여 자율주행차, 수술 로봇, 로봇 인공기관, 돌봄 로봇 등 상용화에 가까운 기술 사례에 대해 구체적인 윤리적·법률적 분석을 진행했 다. 이런 노력으로 나온 결과(European Commission, 2014)를 발전시켜, 유럽의회는 2017년 2월 이른바 「로봇 시민법 권고안」(draft report with recommendations to the commission on civil law rules on robotics)(European parliament, 2017)을 통과시켰다. 이 권고안은 로봇에게 ‘전자 인간’이라는 새로운 법적 지위를 부여할 필요성을 인정하며 로봇 등록제, 로봇 사고의 법적 책임 등의 내용을 담고 있다.

 

 

미국은 현재 지속적인 연구 및 모니터링을 통하여 전반적인 정책 방향성을 모색하는 단계이다. NSTC(National Science and Technology Council) 산하의 「기 계 학습과 인공지능 소위원회(subcommittee on machine learning and artificial intelligence)」는 다방면의 전문가들로 워킹 그룹을 구성해 법·제도 등 다양한 이슈를 논의한다. 정부뿐만 아니라 기업과 대학들도 다양한 단체를 구성하여 인 공지 능이 사회에 미치는 영향을 연구하고 있다. 구글, 페이스북 등 주요 IT 기업들이 함께 모여 인공지능으로 인한 변화를 연구하고, 스탠퍼드 대학교는 「A100」(one-hundred year study on artificial intelligence)을 통해 관련 법제를 준비하고 있다.

 

 

왜 인공지능 사고에 대한 법적 책임을 묻기 어려울까 지금과 다른 새로운 규범 체계를 준비하여야 하는 이유는 인공지능의 특 성상 기존 체계 하에서 법적 책임 소재를 가리기 쉽지 않기 때문이다. 법인격이 없는 인공지능 법인격(法人格)은 법적 권리·의무의 주체가 될 수 있는 것을 말하는데, 현 행법상 자연인과 법인에게만 법인격을 부여한다. 민법에서는 생존한 인간(민 법 제3조)과 법률의 규정에 좇아 정관으로 정한 목적의 범위 내 법인(민법 제34 조)만이 권리·의무의 주체가 되고 형법은 인간에게만 범죄 주체 능력을 인정한다. 이에 따르면 인공지능은 법인격이 없어 사고가 발생하여도 그 책임을 인 공지 능에게 물을 수 없다. 인공지능이 스스로 결정하고 판단하는 수준이 되면 민사상 인간과 같은 의사능력, 책임능력, 행위능력이 있다고 볼 수 있지 만, 사회적 합의에 의한 법인격 부여가 없다면 책임의 주체가 될 수 없다. 지금까지의 논의 방향으로 보면 앞으로도 인공지능이 직접 법인격을 갖기 란 쉽지 않아 보인다. 유럽의회는 2017년 2월 로봇이 초래한 손해에 대한 보 상 문제 등을 다루기 위해 로봇에게 ‘전자 인간’이라는 새로운 법적 지위를 부여하기로 합의하였다. 이는 로봇과 인간을 법적으로 서로 다른 별도의 존 재로 인정할 것을 명확히 한 것이다.

 

 

불확실한 동작 방식 인공지능에게 직접 책임을 물을 수 없기 때문에 이에 관여한 자연인 또는 법인이 책임을 져야 하는데, 인공지능 기술의 동태적 특성상 누가 잘못했는지, 즉 누구에게 책임을 부과하여야 하는지 판단하기 쉽지 않다. 결정론적 규칙 기반 알고리즘과 달리 인공지능의 기반이 되는 기계학습 알고리즘은 주어진 데이터에서 숨겨진 규칙을 추출하여 이를 기반으로 귀납 적인 판단을 하므로 학습에 사용되는 데이터에 큰 영향을 받는다. 따라서 만든 사람도 그 인공지능의 동작을 예측할 수 없다. 한 예로 마이크로소프트의 채팅 봇 ‘테이’ 사건을 들 수 있다. 2016년 3월 서비스를 개시한 ‘테이’는 일부 사용자들이 입력한 욕설, 인종 차별, 성 차별 내용을 학습하여 발언함으로써 선보인 지 16시간 만에 운영이 중단되었다. 이 경우 문제 상황을 예 상하지 못한 개발자에게 과실의 책임을 물어야 할 것인지 불분명하다. 또한, 인공지능이 결과를 도출하기까지 수많은 학습과 연산을 거치므로, 판단 과정을 파악하기 어렵다.

헬스케어에서의 인지컴퓨팅과 AI시스템 활용 시장 현황 및 전망.혁신성장과 미래 트렌드
법! 기계와 인간이 공존하는 미래에 대비하라
 선진국, 이미 새로운 규범체계를 준비하다  왜 인공지능 사고에 대한 법적 책임을 묻기 어려울까  자율주행차의 책임 법제 쟁점을 진단하다  인공지능 기반 의료 서비스의 책임 법제 쟁점을 진단하다
혁신성장과 미래 트렌드 법! 기계와 인간이 공존하는 미래에 대비하라  선진국, 이미 새로운 규범체계를 준비하다  왜 인공지능 사고에 대한 법적 책임을 묻기 어려울까  자율주행차의 책임 법제 쟁점을 진단하다  인공지능 기반 의료 서비스의 책임 법제 쟁점을 진단하다

피해자가 개발자 등에게 책임을 묻기 위해서 는 인공지능 오류와 손해 사이의 인과관계를 입증하여야 하는데, 어느 부분에서 인공지능 판단이 잘못되었는지, 이것이 기술적 오류로 인한 것인지를 알기란 쉽지 않다. 밝히기 어려운 알고리즘 인공지능 알고리즘은 기업 기밀성, 공개로 인한 왜곡 방지 등을 이유로 일 정 수준의 불투명성을 전제한다. 알고리즘 자체가 기업의 재산이므로, 특허로 등록되지 않은 이상 기업은 자사 알고리즘을 공개하지 않는다. 일부 기업 은 공개를 피하기 위해 유출 위험을 감수하고 특허를 출원하지 않는다. 또한 알고리즘 공개로 인한 왜곡 현상으로 자사 알고리즘의 정확도가 낮아지는 것을 막기 위해 공개하지 않기도 한다.

 

 

구체적인 알고리즘을 공개할 경우 이 를 이용하여 자신에게 유리한 결과를 얻기 위한 다양한 시도가 이루어져 결 과에 왜곡 현상이 발생할 수 있기 때문이다. 예를 들어 상품 추천 알고리즘 이 공개되면 판매자들이 자신의 상품을 상위에 노출시키기 위해 다양한 시 도를 함으로써 구매자에게 제대로 된 추천이 이뤄지지 않을 수 있다. 문제는 이러한 불투명성 때문에 손해배상을 청구하기 위해 피해 원인을 입증하여야 할 책임(입증책임)이 있는 피해자가 피해 원인인 알고리즘 문제를 입증하기 곤란하다는 것이다. 따라서 입증책임 전환 등의 보완 수단이 없는 한 피해자가 제조업자 등에게 법적 책임을 묻기란 쉽지 않다. 자율주행차의 책임 법제 쟁점을 진단하다 이러한 한계로 인해 인공지능 시대에는 기존에 없던 다양한 책임법제 쟁 점이 발생할 것으로 예상되는 바, 이에 대한 진단이 필요하다. 급속히 상용 화가 진행되고 있는 자율주행차와 의료 서비스 분야에서 발생 가능한 책임 법제 쟁점을 구체적으로 진단해 보면 향후 우리가 준비할 방향을 설정하는 데 도움이 될 것이다.

 

자율주행차가 일으킨 교통사고 자율주행차가 실제 도로를 달리기 시작하면서 크고 작은 사고가 발생하 기 시작하였다. 2016년 2월 구글 자율주행차가 시험 운행 중 충돌 사고를 냈고, 같은 해 5월 테슬라 모델 S가 자율주행 기능인 오토파일럿으로 동작하던 중 빛나는 하늘 때문에 좌회전하던 트레일러를 인식하지 못하고 충돌하여 탑승자가 사망하였다. 

 

 

특정 상황 외에는 인간 개입이 필요 없는 3단계 이상 자율주행차가 보급되면서 운행자 또는 운전자가 주로 책임지는 현행법에 대해 본격적으로 검 토할 필요성이 커졌다. 2년 뒤인 2020년이면 일반 도로 환경에서 인간의 개 입 없이 자율 주행이 가능한 4단계 자율주행차가 본격적으로 출시될 것이다. 보스턴 컨설팅 그룹은 2035년 전 세계 신차 시장의 4대 중 1대는 자율주행차 가 될 것으로 전망하고 있다(BCG, 2015). 따라서 자율주행차에 맞는 새로운 규범 체계에 대한 준비가 시급하다. 자율주행차 관련 사고에 대한 책임 분배를 명확히 해야 안정적인 시장 확산이 가능할 것이다.

 

살펴보아야 할 쟁점들 자동차 손해배상 보장법 적용 혼란 자동차 사고 발생 시 자동차 손해배상법(이하 자배법)에 따라 운행자가 피해 자에 대하여 무과실에 가까운 손해배상책임을 부담한 후 과실이 있는 자에 게 구상권을 행사하는 형태로 보상이 진행된다. 피해자를 두텁게 보호하기 위함이다. 여기서 ‘운행자’는 “자동차에 대한 운행을 지배하여(운행지배) 그 이익을 향수하는 책임주체로서의 지위에 있는 자(운행이익)”를 말하는데, 보통 보유자가 그러한 지위에 있는 것으로 추인된다. 보유자는 직접 운전하거나 다른 운전자를 정할 수 있고 그로 인한 이익을 얻기 때문에 그에 대한 자배 법상 책임을 지게 된다. 자율주행차 시대에는 이런 체계에 대한 변화가 요구된다. 운전자를 선택하지 않고 운전에 대해 일절 관여하지 않는 보유자에게 지금과 같은 책임을 물을 수 있을지 의문이 제기되기 때문이다. 지금과 동일한 책임을 부담시키 는 것은 보유자에게 과중할 수 있다. 또한 현재는 운전자·보유자가 자배법에 따른 피해 구제를 받을 수 없는데 자율주행차 시대에는 이들에 대한 구 제 방안을 어떻게 마련할지, 보통 운전자에게 행사하던 구상권을 제조업자에게 행사하면서 분쟁 해결이 오래 걸리고 높은 비용이 지출될 것으로 예상되므로 이를 어떻게 처리할지, 자배법에 대한 전반적인 검토가 필요해졌다. 

 

 

불분명한 형사책임 형사법상 인간에게만 범죄 주체 능력이 인정되므로 운전 행위를 한 인공 지능에게는 형사 책임을 물을 수 없다. 인공지능 대신 제조업자, 운전자 등 에 대한 형사책임 부과 여부가 논란이 될 텐데 어떤 이유와 기준 하에 책임을 물을 수 있는지 명확히 할 필요가 있다. 범법자가 될 기준이 명확하지 안 다면 자율주행차 이용이 꺼려질 것이다. 가장 문제 되는 것은 운전자의 주의의무 기준 설정으로 보인다. 운전자가 주의의무를 다하지 않은 경우 과실치사상 등 형사책임이 인정되는데, 현재 와 동일한 주의의무 기준, 즉 운전자의 과실 판단 기준을 그대로 유지하면 자율주행차의 효용성이 저해된다. 자율주행차를 탔음에도 불구하고 주의의 무 기준을 만족시키기 위해서 전방 주시 등을 해야 한다면 자율주행의 편리 성을 누릴 수 없기 때문이다. 자율주행 이용을 확산하기 위해서는 운전 주 체 변화에 따라 운전자 주의의무 수준을 재설정하여야 한다. 불분명한 제조물책임 제조물책임법은 제조물의 결함 46으로 발생한 손해로 인한 피해자의 보호를 도모하는 법이다. 제조업자는 일정한 면책 사유가 없는 한 고의·과실 여 부와 관계없이 제조물의 결함으로 발생한 손해에 대하여 배상책임을 진다.

 

 

제조물의 설계 과정에서 합리적인 대체 설계를 채용할 수 있었는지, 사회적으로 허용되거나 소비자가 예견할 수 있는 위험인지, 당시 과학 및 기술 수 준으로 결함의 존재를 발견할 수 없었는지 등이 결함 존재 및 면책 여부를 판단하는 요소가 되는데 신기술인 자율주행차 초기 단계에는 그 판단 기준 이 불분명하다. 예견 가능한 위험을 넓게 판단하고나 당시 과학 수준을 낮 게 정한다면 과소 배상 문제가 발생하고, 반대로 상기 위험을 좁게 판단하거 나 과학 수준을 높게 정한다면 개발 의욕을 저하할 수 있다. 따라서 신기술 개발 및 적용에 대한 혁신의 의욕을 저해하지 않는 선에서 피해자를 보호하는 균형점을 찾아가야 한다. 자율주행차 시대를 향한 변화의 움직임 자율주행차 시대에는 기존의 충돌 사고를 넘어서 해킹으로 인한 통 제제 어 상실, 정보 유출 등 새로운 사고 유형이 등장할 것으로 예상된다. 생산· 운용 과정에서 제조업자뿐만 아니라 소프트웨어 업체, 부품 업체, 통신 사 업자, 서비스 사업자 등 다양한 주체가 등장하면서 법률문제가 더욱 복잡 해질 것이다. 이러한 법적 분쟁에 대한 복잡성과 불명확성을 낮추기 위한 변화가 시작

되고 있다. 그 첫 단계로 운전 주도권이 인간에서 자동차로 이전됨에 따라 제조업자에게 사고에 대한 책임을 더 부과하거나 새로운 보험제도를 만들 어 기존 체계에서 보호받기 어려운 피해자들도 보호하고자 한다. 지금까지 의 사고는 대부분 제조업자가 과실 여부와 관계없이 자발적으로 보상하거나 리콜하는 방식으로 처리하였다. 하지만 사망자가 발생한 충돌사고에 대해 적 극적으로 책임을 부정한 테슬라 사례를 볼 때, 사고 건 수가 많아지고 사고 수준이 심각해지면 제조업자가 자율적으로 보상하는 것이 쉽지 않아 보이기 때문이다. 주요국은 이러한 내용의 관련 입법안을 마련하는 중이다. 미국 미시간주는 2016년 12월 시스템 결함으로 인한 사고 시 자동차 제조업자가 손해배 상을 부담한다는 법안을 통과시켰다. 일본 정부는 ’ 자율운전 손해배상책임 연구회’를 구성하여 4단계 이상의 자율주행차 사고의 손해배상 책임 부담을 논의하고 새로운 보험 상품을 연구하고 있다. 영국 정부는 2017년 수동 운 행 사고와 자율주행 운행 사고를 모두 보상하는 단일 보험자 방식으로 전환하는 법률안 「vehicle technology and aviation bill」을 발표하고 의회에 상 정하였다(이기형, 2017). 상기 법률안은 자율주행 사고 시 보험사가 제삼자 및 운전자의 인적 손해, 제삼자의 물적 손해를 보상한 후 사고의 귀책사유가 제 조업자, 소프트웨어 공급자 등에게 있는 경우 이들에게 구상권을 행사하여 보상액을 회수하도록 규정하고 있다. 영국은 2018년 이후 자율주행차 생산 이 가능하도록 도로교통법, 의무보험제도 등 관련 법규를 최대한 서둘러 개 정할 예정이다

 

인 공지능 기반 의료 서비스의 책임법제 쟁점을 진단하다 의료사고에 대한 의료인의 책임 변화 논의 대두 의사의 진단을 지원하는 IBM 왓슨을 필두로 인공지능 기반 의료 서비스 가 빠르게 성장하고 있다. Frost&Sullivan은 의료분야 인공지능 시장 규모 가 2014년 6.4억 달러에서 2021년 6조 달러로, 연평균 40%씩 성장할 것으 로 전망한다(Frost&Sullivan, 2015)

시스템이 운전자를 대체하는 자율주행차 분야와 달리 의료 분야 인공지 능은 아직까지 의사 보조 역할을 수행하는 정도이다. 따라서 최종적인 책임을 의료인에게 부과하는 틀은 유지한 채 의료인의 설명의무 및 주의의무, 의 료기기 기준 등이 어떻게 변할지 논의되고 있다. 의료 사고에 대한 의료인의 책임 여부를 판단할 때 설명의무 및 주의의무 준수, 의료법 준수 등이 중요 한 판단 요소인데, 인공지능이 의사와 환자의 의사 결정에 영향을 미치게 됨 에 따라 상기 기준에 대한 변화가 요구된다. 살펴보아야 할 쟁점들 주의의무50 및 설명의무 법적 기준 변동 의사가 주의의무를 위반하여 환자에게 손해를 입힌 경우 민·형사상 책임 을 부담한다. 앞으로는 주의의무 위반 여부를 판단할 때 인공지능 진단 사 용 여부, 인공지능 진단 결과 준수 여부 등이 반영될 수 있다. 그렇게 되면 대부분의 의사들이 활용하는 인공지능을 사용하지 않았다면 주의의무를 다 하지 않은 것인지, 인공지능이 제시한 치료법을 따르지 않았다면 의사에게 과실이 있는 것인지 등 새로운 논란이 발생할 것이다. 만약 인공지능 진단 결과 준수 여부를 주의의무 판단 기준으로 사용한다면 상이한 치료법을 선 택한 의사의 입증 부담이 증가하게 된다. 이로 인해 의사의 재량권이 축소돼 고 인공지능 의존 현상이 높아질 수 있으므로 신중한 판단이 필요하다.

 

주의의무뿐만 아니라 설명의무 기준에 대한 검토도 필요하다. 의사는 환 자에게 질병의 증상, 치료방법의 내용 및 필요성, 발생 예상 위험 등을 설명할 의무가 있다. 인공지능의 진단을 사용할 경우 알고리즘 동작 방식, 불확 실성 등에 대한 설명의무도 부과되어야 할 것으로 예상되나 기술의 특성상 명시적이고 유효한 설명이 어려워 판단 기준을 새로이 마련하여야 한다.

혼란스러운 의료기기 법 해당 여부 허가받지 않은 의료기기를 의료행위에 사용하면 형사 처벌을 받게 되는데 진단 결정을 지원하는 인공지능을 의료기기로 볼 것인지 불분명하여 의료기기법 개정 검토가 요구된다. 식품의약품 안전처의 「빅데이터 및 인공지능(AI) 기술이 적용된 의료기기 허가·심사 가이드라인(안)」은 ‘빅데이터 및 인공지능 기술이 적용된 제품의 의료기기 해당 여부’를 사용 목적에 따라 구분하고 있다. 이 가이드라인은 “의료정보검색용은 의료기기에 해당되지 않으며, 환자 의 질병·예방 등의 목적으로 의료정보를 분석, 진단 또는 예측하기 위해 제 조된 소프트웨어는 의료기기에 해당될 수 있다”라고 기술한다. 이에 따르면 사 용 목적에 따라 인공지능 제품의 의료기기 해당 여부가 달라질 수 있어 의 료 현장에서의 사용이 조심스러워질 수밖에 없다. 불분명한 소프트웨어에 대한 제조물책임법 적용 의료 인공지능의 경우 클라우드 내 소프트웨어를 이용할 수 있는 라이센 스 형태로 판매될 수 있다. 이 경우 피해자가 제조물책임법에 따른 보호를 받지 못할 수 있다.

 

제조물책임법의 적용을 받기 위해서는 ‘제조되거나 가 공된 동산(다른 동산이나 부동산의 일부를 구성하는 경우를 포함)’이어야 하는데 일반 적은 로 소프트웨어는 동산으로 보지 않고 제조물책임법 적용을 인정하지 않고 있다. 따라서 의료 인공지능 사고에 대하여 제조업자에게 일정 부분의 책임을 부과시키기 위해서는 제조물책임법 개정 검토가 필요하다. 의료행위 개념 재정립 의료행위는 명시적인 정의 규정 없이 시대적 상황에 따라 판례 등에 의해 변화한다. 최근에는 인공지능을 위한 진료 정보 분석이 의료행위에 해당되는지 의문이 제기되고 있다. 의료행위에 해당된다면 이는 의료인만 할 수 있으므로 진료 정보 분석에 데이터 과학자 등 타 분야 기술자가 관여할 수 없고, 병원이 아닌 곳에서 진료 정보를 소유하거나 관리·보존할 수 없다. 인공 지능 기술은 데이터가 생명이기 때문에 이는 국내 의료 영역에 인공지능을 도입하는 데 걸림돌이 된다. 따라서 의료 분야의 인공지능 연구 및 활용을 활성화하기 위해서는 필요한 영역에서 의료인이 아닌 타 분야 전문가가 활동할 수 있도록 의료행위의 경계를 재검토하여야 한다.

 

마무리하며 살펴본 바와 같이 인공지능 시대가 다가오면서 많은 책임 법제 쟁점이 발생 하므로 이에 대한 국가 차원의 준비가 필요하다. 먼저 인공지능 시대의 책임법제 설계를 위한 범국가적 연구 체계를 수립 하여야 한다. 새로운 기술로 인하여 불의의 피해를 입지 않을 것이라는 신뢰 를 형성하여야 그 기술이 사회에 안착할 수 있다. 인간이 아닌 주체에 의해 손해가 발생하였다는 이유로 피해자의 손해 보상이 제한된다면 인공지능 연 구개발 및 기술 확산이 저해되므로 인공지능 사고의 책임 분담 및 방법에 대 한 연구 설계가 시급하다. 이를 위해서 인공지능으로 인해 발생 가능한 법률 쟁점을 발굴하고 그 대안 및 재설계 방안을 모색하는 연구를 국가적으로 추 진하여야 한다. 법무·기술·정책·의료 등 다양한 전문가들이 참여하고 국민 의 의견을 청취하고 반영하여 사회적 합의를 탄탄하게 이루어야 한다. 이 때 반드시 데이터 수집 및 알고리즘 단계에서의 준수사항 및 모니터링 체계를 마련하여야 할 것이다.

 

데이터를 학습하여 판단을 고도화하는 인공 지능 알고리즘 특성상 데이터가 매우 중요한데, 데이터가 오염되어도 그 양 이 방대하여 사후 감시가 곤란하다. 따라서 사전에 데이터 공정성·신뢰성 검증, 편견 제거 의무 등을 테스트할 수 있는 실험 체계 및 방법론을 연구하 여야 한다. 또한 문제 발생 시 기업에게 알고리즘을 공개하도록 강요하는 것 이 어렵기 때문에 기술 개발 의욕을 저해하지 않으면서도 인공지능 동작 방 식에 의문을 제기하고 검증을 요청할 수 있는 모니터링 체계에 대한 연구가 필요하다. 이러한 선제적 대응이 신뢰와 사회적 합의에 기반한 인공지능 시장을 창 출하고 기술 구현을 올바른 방향으로 이끌어 나갈 것이다. 우리나라는 주요 국에 비해 관련 논의가 뒤떨어진 상태이므로 시급성 및 관련 기술의 상용화 정도 등을 고려하여 우선순위를 수립함으로써 연구 효용성을 높여야 한다. 예를 들어 인공지능 시대로 진입하는 과도기적 상황에서 변화의 충격을 완 화시킬 수 있는 임시 보험 제도, 기금 제도, 제조물책임법상의 기준은 시급 히 검토하고, 로봇세와 법인격 여부 등 장기적인 사회적 합의가 필요한 부분 은 긴 호흡을 가지고 할 필요가 있다.

 

이 과정에서 국제 규범 형성 논의에 적극적으로 참여하여 국제 표준에서 의 입지를 확보하여야 한다. 책임 분배 기준은 사후 손해 보상뿐만 아니라 표준 등 기술 설계 과정에도 큰 영향을 끼친다. 국제적 책임 법제 논의 흐름 에 맞지 않는 기술은 고립될 것이다. 전략적인 책임법제 재편을 위하여 주요 국의 책임법제 변화를 지속적으로 파악하여 표준 기술을 확보하고 주요 시 장에서 운용 가능한 기술개발 추진 방향을 수립하여야 한다. 기술 발전 과정에서 등장하는 다양한 과제와 쟁점을 어떻게 풀어갈지에 대한 사회적 합의가 없다면 신기술이 일상에 스며드는 데 한계가 있을 수밖에 없다. 만약 이 한계를 넘어 널리 활용된다고 하더라도 사회적 준비가 되어 있지 않으면 그 부작용이 클 것이다. 이제는 기술뿐만 아니라 법도 인공 지능 시대에 대비하여야 할 시점이다. 기술자, 연구자, 법률가 등 다양한 전 문가들이 머리를 모아 인공지능 미래의 명암을 이해하고 이를 헤쳐나가기 위 한 새로운 법체계를 모색하여야 할 것이다.

 

반응형

댓글0