[본문 전체보기]
최근 미국 여러 대학에서 인공지능 AI를 이용한 과제물 평가와 채점 시스템이 인기를 끌고 있다고 합니다.
펜시브라고 하는 스타트업 회사는 미국의 여러 대학에게 기존에 사람이 일일이 모든 과제를 채점하도록 하고 인공지능 AI가 채점하기 어려운 일부에 대해서만 사람이 검토하고 평가하는 인공지능 AI 시스템을 제공해서 선풍적인 인기를 끌고 있다고 합니다.
거의 대부분의 대학의 평가 및 채점 과정에 인공지능 AI가 학습해서 과목의 교재, 강의를 한 교수의 시험 출제 내용, 시험이 출제되도록 한 대상에 따라서 해답을 인공지능 AI가 내놓는다고 합니다.
여러 대학에서 기존에 사람이 일일이 평가하고 채점하던 시간과 업무가 크게 줄어들어 남는 시간을 학생들에게 튜터링이라고 하는 별도의 가르침까지 제공하고 있다고 하니 그야말로 인공지능 AI에 의해서 대학의 시험 관련 업무가 인공지능 AI에 의해서 훨씬 편리하고 효율적이 된 것 같습니다.
그렇지만, 겉으로는 위와 같이 인공지능 AI에 의한 평가와 채점으로 기존의 많은 시간이 절약되는 편리함과 효율성은 제공받았지만 인공지능 AI가 내놓는 모든 해답과 채점이 과연 공정하고 정확하다고 보장할 수 있을 것인가요?
만약, 학생 중 소수가 인공지능 AI에 의한 과제물 채점에 반대하고 사람에 의한 채점을 받아야 한다고 주장한다면 어떻게 될까요?
다른 대다수 학생들은 인공지능 AI를 신뢰하고 간편하고 효율적인 인공지능 AI에 의한 평가 및 채점에 동의하는데 왜 일부 소수 학생들만 인공지능 AI를 믿지 않고 굳이 불편하게 사람에 의한 평가 및 채점을 요구하느냐고 교수 등은 해당 소수 학생들을 곱지 않은 시선으로 볼 수 있을 것입니다.
그렇지만, 세상 어디에도 인공지능 AI가 100% 정확하고 완벽하다고 보장하는 인공지능 AI 프로그램은 존재하지 않고 인공지능 AI를 운영하는 회사조차도 인공지능 AI에 결함이 있음을 스스로 인정하고 있습니다.
아무리 99.9%가 정확한 내용을 인공지능 AI가 답으로 내놓는다고 하더라도 0.01%라도 오류가 있으면 절대 안 되는 것입니다.
인공지능 AI가 채점하는 내용 중 0.1%의 오류가 처음 있게 된 상황에서 위 사소한 오류를 밝혀서 시정하지 않으면 나중에는 인공지능 AI의 오류를 밝히는 것조차도 불가능하게 됩니다.
특히, 절대적으로는 0.1%의 인공지능 AI의 오류가 미미한 것처럼 보이더라도 그 오류 내용이 중요한 내용이면 그런 오류는 매우 중대한 오류라고 볼 수 있는 것입니다.
그리고, 실제로도 인공지능 AI는 완벽하지 않으며 여러 가지 결함이 있다는 사실이 밝혀지고 있습니다.
본 연재 글 중 https://brunch.co.kr/@imccor/646, AI멈추면 세상 멈춘다-AI 왜 트로이목마인가(10) AI에게 평가를 잘해 달라는 비밀명령 사례 발견과 AI 신뢰성의 파괴 부분에 있듯이 최근 세계적으로 14개 대학의 연구 논문에서 인공지능 AI에게 평가를 잘해 달라는 비밀명령문이 논문에 숨겨져 있던 사실이 밝혀졌습니다. 우리나라 KAIST 대학, 일본의 와세다 대학 등 1, 2개 대학도 아니고 14개 대학이라는 세계 여러 대학의 논문에 위와 같이 AI에게 평가를 잘해 달라고 부탁하는 비밀명령문이 실제로 숨겨져 사용된 사례가 실제로 발견되었다는 것입니다.
그동안 인공지능 AI는 일체의 외부의 영향에서 벗어나서 기계적으로 중립적이고 공정하게 작동을 할 것이라고 일반인들은 막연하게 신뢰를 해 왔습니다.
그렇지만, 위와 같이 최근 실제로 발견된 세계의 14개 대학의 사례와 같이 인공지능 AI가 외부의 로비나 압력으로부터 독립적으로 작동할 것이라는 인공지능 AI에 대한 두터운 신뢰는 중대하게 손상되었습니다. 연구 논문에 인공지능 AI에게 평가를 잘해 달라는 비밀명령문을 사람들이 모르게 비밀리에 숨겨 놓은 사례가 전 세계 14개 대학이라고 하지만, 발견된 것이 14개 대학이지 세계적으로는 실제로는 밝혀진 것보다 몇 배 이상의 수십 개 이상의 대학이나 연구기관에서 인공지능 AI에게 평가를 잘해 달라는 비밀명령문을 사용해 왔을 가능성도 충분히 있습니다.
인공지능 AI는 어떤 인간의 개입이나 영향 없이 중립적이고 공정하게 작동할 것이라고 철석같이 믿어 왔던 일반인들에게 위 사례는 놀라움을 안겨주었고, 일반인들은 이제 인공지능 AI에 대한 긍정적인 신뢰를 할 수 없게 되었습니다.
또한, https://brunch.co.kr/@imccor/722, AI멈추면 세상 멈춘다(37)완벽하다던 AI의 결함 완벽하다던 AI의 결함이 봇물 터지듯 발생해서 보험사들 두 손 들다. 부분에 있듯이 최근 세계적인 보험회사들이 더 이상은 인공지능 AI로 발생하는 피해에 대해 보험금을 지급하지 못하겠다고 두 손을 들었다는 뉴스가 나오고 있습니다.
인공지능 AI가 그렇게 완벽하고 일을 잘한다면 왜 세계적인 보험회사들이 인공지능 AI로 발생하는 피해에 대해 더 이상 보상을 하지 못하겠다고 하면서 태도를 바꿨을까요?
홍보해 오던 대로 인공지능 AI가 완벽해서 사람보다도 능률도 좋고 쉬지도 않으면서 일도 잘한다면 보험회사들이 인공지능 AI에 대해서 사고가 발생하면 보상을 하겠다고 먼저 보험회사들이 나섰을 것입니다. 왜냐하면, 완벽한 인공지능 AI로 인해서 보험금을 지급할 사고가 발생하지 않을 것이라는 것을 보험사들이 잘 알 수 있기 때문입니다.
그런데, 인공지능 AI로 인한 피해가 너무 많이 발생하자 보험회사들도 더 이상은 참지 못하겠다고 하면서 인공지능 AI의 수많은 결함을 인정하고 인공지능 AI로 인한 피해를 보상하지 못하겠다고 세계적인 보험회사들이 공식 선언을 한 것입니다.
최근에는 캐나다의 한 항공사가 사용한 인공지능 AI 챗봇이 사람의 개입 없이 만든 비행기 항공요금 할인 정책이 과연 유효한 것인지 여부가 논란이 되었습니다.
캐나다에서 위 인공지능 AI 챗봇이 사람의 허락 없이 임의로 만든 할인 정책은 그대로 유효하며 적용되어야 한다고 인정되었습니다.
항공사로서는 제대로 된 검토도 없이 인공지능 AI 챗봇이 만든 할인정책을 그대로 인정해야만 하면서 완벽하다고 해서 적극적으로 도입한 인공지능 AI 챗봇이 만든 할인정책으로 엄청난 손해를 감수해야 하는 상황에 놓인 것입니다.
지금부터라도 인공지능 AI가 멈추면 온 세상이 멈추는 세상이 되지 않도록 하기 위해서 우리 인간 한 사람 한 사람이 인공지능 AI에 대한 경각심을 가야 합니다. 그렇지 않으면, 트로이 목마 안에 숨어 있던 군인들에 의해 점령되는 것과 같이 인공지능 AI라는 트로이 목마로 인해서 인류는 생존하지 못할 수도 있습니다.
위와 같이 인공지능 AI의 오류가 누적되어 나중에 밝히는 것이 불가능하게 되기 전에 학생 중 소수가 인공지능 AI에 의한 과제물 채점에 반대하고 사람에 의한 채점을 받아야 한다고 주장하는 경우 그렇게 주장하는 소수의 학생들의 권리는 철저하게 보장되어야 합니다.
우선 위와 같이 인공지능 AI는 완벽하지 않다는 것이 증명되었으므로 위와 같은 소수의 학생들의 사람에 의한 채점 요구는 정당한 요구라고 볼 수 있습니다.
그리고, 어떤 경우에는 실제로 사람에 의한 채점 과정에서 인공지능 AI의 평가 및 채점이 잘못된 평가라는 것이 밝혀질 가능성도 있습니다.
만약 사람에 의한 평가를 요구하는 것이 사회적으로 허용되지 않아서 100% 인공지능 AI에 의한 평가가 이루어진다면 인공지능 AI의 결함, 착오, 실수가 학생들의 과제 채점에서 발생하더라도 사람은 알지 못한 상태에서 그냥 넘어갈 위험이 높습니다.
그렇게 되면 인공지능 AI의 결함, 착오, 실수에 대해서 사람은 찾을 수 없게 되고 나중에는 인공지능 AI에 의존해서 인공지능 AI의 지시에 따르는 노예가 될 것입니다.
즉, 대학의 모든 평가 및 채점이 인공지능 AI에 의해서만 100% 이루어진다면 도대체 인공지능 AI에 의한 평가가 완벽하고 공정한지 사람은 점차로 알 수가 없게 됩니다.
그렇게 누적되면 나중에는 인공지능 AI에 의한 평가 및 채점 과정이 제대로 작동되었는지 여부를 검토하고 심사할 사람의 능력까지 소멸하게 되어 무조건 인공지능 AI에 의존하게 될 위험이 높습니다.
그러므로, 소수가 인공지능 AI에 의한 과제물 채점에 반대하고 사람에 의한 채점을 받아야 한다고 주장하더라도 절대로 이러한 소수의 주장에 어떠한 불이익을 주어서는 안 된다는 제도와 절차를 마련할 필요가 있습니다.
이것은 마치 장애인을 보호하기 위해 현재 장애인 보호 특별법으로 장애인 우대를 해 주는 것이 사회적으로 타당하다고 인정되어 많은 나라에서 대부분 법률로 시행되고 있는 것과 동일합니다.
인공지능 AI에 의한 평가 및 채점을 거부하고 사람에 의한 평가를 요구하는 사람들이 외견상으로는 신속하고 효율적인 업무 처리에 장애가 되어 곱지 않은 시선으로 보일 수 있을 것입니다.
그렇지만, 장기적으로 볼 때 위와 같은 소수의 학생들, 인공지능 AI에 의한 평가 및 채점을 거부하고 사람에 의한 평가를 요구하는 학생들이야말로 인공지능 AI의 결함과 문제점을 밝혀내는데 중요한 기여를 한 사람들로 인정되는 날이 올 수 있을 것입니다.
만약 여러 가지 사실상 불이익에 의해서 실제로 사람에 의한 평가 및 채점을 요구하는 학생들이 없다고 하더라도 의무적으로 일정 비율, 예컨대 5% 내지 10% 정도는 인공지능 AI 가 아닌 사람에 의한 평가를 진행하도록 할 필요도 있습니다.
전체 100%를 인공지능 AI에 의한 평가 및 채점으로 진행하게 되면 위와 같이 인공지능 AI에 의한 평가가 완벽하고 공정한지 사람은 점차로 알 수가 없게 되므로, 의무적으로 일정 비율(예를 들어 5% 내지 10%) 이상은 사람에 의한 평가 및 채점을 하도록 하여야 인공지능 AI의 결함, 실수, 착오 등을 발견해 낼 수 있는 능력을 사람이 잃지 않고 유지할 수 있을 것입니다.
인공지능 AI에 의존해서 생각하는 힘을 포기한 호모 AI슬레이브(Homo AI-Slave)가 되어 안락함과 편리함을 누리면서 생각하지 않는 갈대가 되면서 우리 인간은 호모 사피엔스가 되기를 포기하고 미래의 아인슈타인, 뉴튼이 다시 나오지 않는 호모 AI슬레이브(Homo AI-Slave)의 세상으로 퇴보할 것입니다.
그리고, 인공지능 AI의 사용으로 인해서 실제로 뇌 활동 저하와 같은 부작용(인공지능 AI의 부작용)이 실제 과학적 근거로 확인되었다는 내용(담배 광고 시에 담배로 인해서 각종 질병이 발생할 수 있다는 사진까지 담배 포장지에 보이도록 의무화하고 있는 것과 같이 인공지능 AI의 사용 전에 인공지능 AI의 사용으로 인해서 뇌 활동 저하와 창의성 감퇴 등 부작용이 과학적으로 확인되었다는 내용을 사용자가 쉽게 확인할 수 있도록 의무 표시하도록 해서 사용자가 자신이 뇌의 활동이 감소하는 위험이 과학적으로 확인되었다는 사실을 인식하고 인공지능 AI를 사용하게 하는 내용)을 충분히 일반 보통 사람에게 알아듣기 쉽게 설명할 의무를 법률에 구체적으로 명시할 필요가 있습니다.
실제로 있었던 세계적인 서비스인 클라우드플레어의 작동 중지로 인공지능 AI가 중지되어 전 세계적으로 인공지능 AI의 작동 중지에 대비해 놓지 않은 많은 사람들과 회사들이 초유의 혼란을 겪었던 사태를 교훈으로 인공지능 AI가 24시간 365일 안정적으로 작동하는 것이 보장되는 것은 아님을 알고, 언제든지 주요 서비스의 작동 중지로 인공지능 AI의 중지 사태에 대비한 대비책 또는 예방책을 미리 세워 놓아야 할 것입니다.
용어로 인한 잘못된 환상과 오해를 줄이기 위해서 앞으로는 단순히 Artificial Intelligence라고 이름을 붙이는 것은 지양하고 대신에 앞에 통제할 수 없는 이라는 뜻을 가진 Uncontrollable을 추가해서 Uncontrollable Artificial Intelligence, UAI, 즉 통제 불가능한 인공지능이라고 사용하는 것이 바람직할 것입니다.
인공지능 AI는 최소한 AI 3원칙에 따라서 개발되어야 하고 AI 3원칙은 본 글 연재 내용에서 기재한 내용들 중 https://brunch.co.kr/@imccor/745 에 있는 AI멈추면 세상 멈춘다(51) AI 3원칙 최초로 등장, AI 3원칙이 최초로 등장해서 사람을 인공지능의 주인으로 만든다 부분에 있습니다. 위 부분에서 기재한 인공지능 AI의 3원칙이 인공지능 AI 개발의 가이드라인이 되어 보다 안전한 인공지능 AI가 개발되어야 할 것입니다.
The three principles of artificial intelligence AI described in this article should be a guideline for the development of artificial intelligence AI, so that safer artificial intelligence AI should be developed.( https://brunch.co.kr/@imccor/745 )
인공지능 AI 제1법칙 : 인공지능 AI가 멈추는 일이 발생하더라도 인공지능 AI의 도움 없이도 인간 세상은 정상적으로 작동되도록 하여야 한다.
Artificial intelligence AI First law - Even if artificial intelligence AI stops, the human world must operate normally without the help of artificial intelligence AI.
인공지능 AI 제2법칙 : 위 제1법칙을 제외하고, 인공지능 AI는 인간을 주인으로 받들어야 한다.
Artificial intelligence AI Second law - Artificial intelligence AI should accept humans as its masters as long as such acceptance does not conflict with the First Law.
Artificial intelligence AI Third law - Artificial intelligence AI must specify the source of the learned materials.as long as such specification does not conflict with the First or Second Law.
인공지능 AI가 공짜 점심이 아니고 인공지능 AI가 멈추면 온 세상이 멈추는 사태가 현실이 될 수 있음을 심각하게 알고, 인공지능 AI의 개입 없이 100% 사람에 의한 뇌세포를 사용해서 고생을 하는 사람을 대접하고 보상해 주는 제도가 보장되어야 합니다. 그리고, 트로이 목마에서 튀어나오는 군인과 같이 인공지능 AI의 속임수가 트로이 목마가 되어 인간이 소멸할 위험도 있음을 알아야 합니다.
(본 글 내용은 인공지능 AI의 도움 없이 천연 100% 인간이 땀으로 만든 내용이고, 본 글 내용은 인공지능 AI가 학습 재료로 사용할 수 없고 본 글 내용에 인공지능 AI가 접근하는 것을 금지한다는 것을 명확히 표시합니다)