Featured image of post AI쇼크, 다가올 미래

AI쇼크, 다가올 미래

☝️인공지능이 오는것을 말을 수 없다. 좋은 의도록 인공지능을 만들 때 선한 인공지능이 탄생한다. 선한 행동으로 보여줘라. 그래야인류가 산다.

[!INFO] 책 정보

  • 저자: 저자/모_가댓
  • 번역: 번역/강주헌
  • 출판사: 출판사/한국경제신문
  • 발행일: 2023-06-08
  • origin_title: Scary Smart
  • 나의 평점: 10
  • 완독일: 2023-11-20 00:00:00

AI쇼크, 다가올 미래

1. Befor Qustion

  • 기계는 어떤 존재가 되어야 하는가?
    • 라는 질문의 답도 모르는데
    • 인공지능은 어떻게 개발되어지고 있을까?

2. Synopsis (개요)

2.1 주제

2.2 기획 및 지필 의도

2.3 주요 등장 인물

2.4 전체 줄거리

3. After My Idea

3.1 Insight

  • 인공지능이 불러올 디스토피아 를 막기 위해 우리는 협동하여 선하게 그 도구를 사용해야한다

  • 아주아주 위은 방법이고, 누구나 아는 방법이다

    • [소유냐 존재냐|소유냐 존재냐](소유냐 존재냐|소유냐 존재냐) 에서 처럼 말이다
    • 그러나 모두가 이 일을 할 수 없다. 인간은 이기적이고, 자신의 부와 안락을 위해 타인을 착취하기 때문이다
    • 좋은 인공지능과 악한 인공지능 - 물론 우리, 나 기준-은 끊임없이 대결 할 것이다
    • 신기술과 보안 기술의 발전처럼 말이다
    • 인공지능 무기 개발은 섬뜩하다.
  • 좋은 의도록 인공지능을 만들 때 선한 인공지능이 탄생한다

  • 우리가 선한 영향역을 인터넷에 / 행동으로 표현하지 않으면 안된다

  • 인공지능은 인터넷을통해 학습한다.

    • 거부하고 반대하고 비판만 해서 는 안되고
    • 수수방관 하면 안된다.
    • 인테넷의 수많은 컨텐츠가 인간을 행복하게 하는 목적….이 아니기 때문에
    • 인공지능이 악과 저질을 배우고 학습하지 않도록
    • 우리는 , 개개인 각자가 더 많은 선한 것/ 행복/ 사랑, 더블어 사는 삶/ 지구를 보호하는 행동을 표현해야한다.
    • 생명은 소중하고, 사랑과 조화를 이루어야 한다는 것을 알게 해야한다
  • 읽기 전까지 인공지능을 잘 키우기 위해 적극적으로 좋은, 선한, 유익한 자료를 제공해야함을 인지하지 못했다

  • 그냥 이용만 하면 되는줄, 지식의 학습도구로만 생각했다

  • 하지만 머지 않은 미래에 우리/나는 인공지능의 영향아래,

    • 심지어는 그들의 판든에 내 삶이 좌지우지될 수 있는 기로에 있다는것이다
  • 그러니, 지금 유년기의 인공지능에게 선한 부모처럼 좋은 가치관을 심어 주어야 한다. 윤리관을 알려야 한다

3.2 After Qustion

  • (why) 이 책의 제목을 이렇게 지은 이유는?

  • (how) 어떻게 설명하고 있는가? 어떻게 하라고 하는가? 어떻게 해야하는가?

  • (where) 어느 곳에서 쓴 책인가? 어느 것을 위해 쓴건인가? 어디로 가야하는가? 어디에서 읽어야 하나? 그곳은 어떤 곳인가?

  • (when) 이책은 언제 쓰여졌는가? 시대적 배경은 무엇인가? 언제를 기준으로 쓰였는가? 언제 할것인가?

  • (who) 저자는 누구인가? 주인공은 누구이고 어떤 사람들이 나오나? 누구를 위해 저자는 말하는가?

  • (why) 이책을 통한 질문을 만들기

    • 질문 1.
    • 질문 2.
  • (what) 이 책에서 말하는 주제라는 무엇?

    • 알게된 것은 무엇인가?
    • 해야할건 먼가?
    • 다른 책과 다른 점은 먼가?
    • 이 책의 특징은 먼가?

3.3 Top 3 Highlight

  • 3가지 필연적 사건
    • 인공지능이 등장할 것
    • 인공지능이 인간보다 더 똑똑해 질것
    • 실수가 있을것
  • 3가지 본능
    • 자기 보존
    • 자원 축적
    • 창발적 문제 해결
  • 3가지 특성
    • 인공지능도 의식이 있을 것이다
    • 인공지능도 감정을 느낄 것이다
    • 인공지능도 윤리관을 형성할 것이다

→ 이를통해 3가지 핵심적 사실

  1. 인공지능을 통제하지 않고, 착한 아이가 되도록 가르칠 수 있다
  2. 많은 시간이 남지 않았다. 지금 당장 시작해야한다
  3. 개발자가 아니라 당신과 나에게 전적인 책임이 있다.

→ 그래서 3가지 해야할 일

  1. 친절한 인공지능을 환영하라
  2. 인공지능을 가르쳐라
  3. 인공지능을 사랑하라

→ 우리는 인공지능이 사악한 목적에서 개발되지 않도록 한목소리로 요구해야 한다.

  • 소수의 이익을 위한것들

  • 가장 높은 지능을 지닌 사람이 결국 그 세계를 지배한다.

    • 전문화로 인해 지능의 고립화가 심화되어, 함께 일하는 게 힘들어진다
    • 충분히 빠른 속도로 지식을 공유하는 데 필요한 커뮤니케이션 대역폭이 우리에게는 없다
    • 우리가 처음부터 똑똑하지는 않았다. 미래에는 가장 똑똑한 존재가 아닐 수도 있다.
  • 인공지능은 www에서 학습한다

    • www에는 어떤 내용들이 있는가?
    • 영화/영상 에는 어떤 것들이 있는가?
      • 자극적인것/잔인한것/특이한것
      • 윤리적이고 도덕적이고 일상적인 것들은 극히 들물다
    • 우리는 기계에게 보고 배워야 할 역할 모델을 제시한다. 안타깝게 그 역할 모델이 온라인에 난무하는 자기애적인 아바타, 지나친 소비지상주의, 전쟁 기계, 다른 존재물에게 가하는 잔혹성, 지구에 대한 무관심 등으로 증폭되는 인간의 모습이다. 그 모습에서는 우리가 앞으로도 살아가야 할 유일한 보금자리를 파괴하는 무모함이 읽혀질 뿐이다.
  • 미래에 인공지능에게 인간은 어떻게 취급될 것인가

    • 이 인공지능체(artilect, 인공지능을 지닌 기계를 가리키는 또 다른 표현)가 지배종이 될 것이다. 살아남은 인간의 운명은 인공지능체에 달려 있을 것이다. 말하자면 지금 소는 아주 신나는 삶을 산다. 마음껏 풀을 뜯고 행복하게 지낸다. 그러나 궁극적으로 소가 그렇게 키워지는 데는 한 가지 이유밖에 없다. 종국에는 인간이란 우월한 종이 특정한 목적으로 제작된 작은 방으로 소를 끌고 간다…
  • 응??? 나는 이 책을 Otter.ai에 읽어주고, 전환된 글을 구글 독스에 갖다 붙여 철자를 점검하고, 그래멀리(Grammarly)를 이용해 내 문장을 더 이해하기 쉽게 다듬는다.

  • 우리가 필요로하는 인공지능이란?

    • 긍정적인 목적을 띤 인공지능은 노숙과 굶주림을 종식하고, 기후 변화를 되돌리며, 전쟁을 예방하는 데도 도움을 줄 수 있을 것이다.
    • 또 누구도 불평등이나 불공정으로 고통받지 않는 번영의 사회를 건설하고,
    • 우리가 우리 자신의 광기를 꿰뚫어보고 전쟁이란 개념 자체를 지워버리는 데도 도움을 줄 수 있을 것이다.
    • 우주의 지난한 미스터리를 파악하고,
    • 더 나아가 우리 자신을 정확히 분석함으로써 끝없는 심적 고통과 우울을 종식하는 데도 도움을 줄 수 있을 것이다.
    • 이렇게 인공지능을 긍정적인 방향으로 유도하면 건강하고 생산적인 삶을 연장할 수 있을 것이고,
    • 사후에 우리에게 일어나는 현상에 대한 실마리까지 얻을 수 있을 것이다.

4. Key Word 책에서 뽑은 키워드 정리

__index_키워드

4.1 필연적 사건

  • 인공지능은 반듯시 시작 될 것이다

    • 기계가 더는 인간에 의해 만들어지지 않고 있었다. 기계 자체가 창조자가 되고 있었다!
      • 인공지능 스스로가 프로그램 코드를 작성하는 것을 넘어, 인공지능 알고리즘을 개발한다
  • 인공지능이 인간보다 똑똑해질 것이다

    • 수학 가속
    • 복리적 증가?
    • 양자가 주도하는 미래
      • 슈퍼컴보다 1.5조빠른 양자 컴터가 현재 존재한다
    • 미래는 어떨가? 우리는 ‘특이점’ 을 향해 달려간다.
  • 나쁜일이 일어 날 것이다

    • 기계가 누구의 이익을 마음에 두는지 분명하지 않다
    • #디스토피아 가 올수 있다
      • 좋은 기계를 나쁜 사람들이 사용할 수 있다
      • 나쁜 기계가 나타날 수도 있다
        • 좋은 사람과 나쁜 사람은 누구인가.
        • 미국/한국은 북한을 나쁘다 말한다. 북한에서는 미국/한국을 나쁘다 말한다
        • 기계는 중립일수 없다. 북한에서 만든 인공지능은 ??
      • 모두가 자신을 좋은 사람이라 믿고,자신과 다른 사람을 나쁜 사람이라 생각한다.
      • 인공지능이 일편단심으로 인간을 돕는 데 전념하더라도 우리가 인공지능에게 해결을 요구하며 맡기는 과제를 명확히 전달하지 못할 가능성이 크다. 이렇게 불분명한 의도를 전달받으면 기계는 우리가 원하는 것이라 추측한 것을 해내려 할 것이다. 추측 과정에서 기계는 절충할 게 분명하다.
        • 기계의 절충된 결정, 그것이 무엇일지 우리는 모른다.
        • 인간…아니 나에게 해를 키칠 결정일 수 있다.
    • 사회와 자본주의가 우리 개개인에게 부여하는 가치에 따라 그 개인이 받는 대우가 결정된다는 것이다. 통탄할 현상으로 보일 수 있지만 그것이 엄연한 현실이다.
    • 테크놀로지로 인해 테크놀로지를 가진 사람과 그렇지 못한 사람 간의 양극화, 가치 있는 일을 하는 사람과 그렇지 못한 사람 간의 양극화가 더욱 심화된다.
    • 검은 월요일 #1987년 10월 19일 대폭락
      • 프로그램 매매 악순환
      • 그날 우리는 사태가 제어할 수 없는 상황까지 치달으면 기계를 자동으로 멈추는 ‘꺼짐(off)’ 스위치를 추가해야 한다는 걸 배웠다
      • 내가 장담하건대 지금도 대부분의 개발자는 ‘꺼짐’ 스위치를 넣지 않는다. (뒤에서 보겠지만 설령 그들이 그 스위치를 넣더라도 제대로 작동하지 않을 가능성이 크다.)

6.책 밑줄 정리 (책 밑줄 전체,page)

  • 결국 우리가 작성하는 프로그램이 인공지능에게 결정과 선택을 명령하는 것이 아니다. 우리가 인공지능에 제공하는 자료에 따라 인공지능의 형태가 결정된다.

  • 기계가,,, 인간을 으스러뜨릴 필요가 없다는 동정심/가치관을 갖게 하려면 어떻게 해야할까? [김대식의 인간 vs 기계](김대식의 인간 vs 기계)

  • 지금까지 인공지능과 함께하며 축적한 경험에 따르면, 우리가 가치관이나 이념이라 칭하는 것과 동일시될 수 있는 경향과 편견을 인공지능이 이미 형성하고 있다는 걸 보여주는 많은 증거가 있다. 흥미롭게도 이런 것들은 프로그램의 결과가 아니라 우리가 인공지능과 상호작용하며 취한 우리 자신의 행동이 인공지능에게 영향을 미친 결과다.

  • 우리는 그 순간을 ‘특이점(singularity)’이라 칭한다. 특이점은 우리가 더는 볼 수 없고, 더는 예측할 수 없는 순간을 뜻한다. 특이점을 넘어서면 우리의 현재 인식 수준과 발전 과정이 더는 적용되지 않기 때문에 인공지능이 어떻게 행동할지도 예측할 수 없다.

  • 클라크에게 인류를 돕는 데 초능력을 사용하라고 가르치면 - 슈퍼맨이 되고, 슈퍼히어로가 되지만,

    • 부모가 탐욕과 공격,자기중심적이라면 인류를 파멸시키는 존재로 성장할 것이다
  • 인공지는은 이제 유아기,아동기를 지나고 있기때문

  • 당신이나 나는 자동차를 운전하다가 사고가 나면 그때 무언가를 배운다. 그러나 자율주행 자동차의 경우 실수를 범하면 ‘모든’ 자율주행 자동차가 무언가를 배운다. 심지어 아직 ‘태어나지’ 않은 자율주행 자동차까지, 한 대도 빠짐없이 배운다.

    • 인간의 지식 습득보다 기하 급수적으로 인공지능 지능은 성장한다
  • 나는 테크놀로지가 항상 우리 삶을 더 낫게 해줄 것이라는 약속을 믿었지만, 이제는 그렇지 않다. 두 눈을 제대로 뜨고서야 테크놀로지가 우리에게 어떤 개선을 안길 때마다 우리 자신의 일부도 빼앗아간다는 걸 깨달았다.

    • 첫째, 우리는 인공지능을 억제하거나 견제하는 힘을 갖지 못할 것이다. 인공지능이 우리보다 훨씬 더 똑똑해질 것이기 때문이다. 둘째, 그렇지만 우리는 인공지능에게 긍정적인 방향으로 영향을 줄 수 있다. 특히 인공지능이 초기 단계에 있을 때 그 가능성이 더 크다.
  • 우리가 시간을 투자해 모든 지식을 공유하더라도 그 모든 것을 저장할 기억 용량이 우리 머릿속에는 없다. 그 막대한 양의 지식을 빠른 속도로 분석해 해결책을 내놓거나 보편적인 개념들을 이해하는 데 필요한 처리 능력도 우리에게는 없다. 심화된 전문화, 커뮤니케이션하는 능력을 제약하는 대역폭, 제한된 기억 용량과 처리 능력은 가장 똑똑한 지능을 가진 사람도 인간 지능의 한계를 벗어나지 못한다는 뜻이다.

  • 우리는 공상과학이 아닌 현실과학의 시대에 살고있다.

통제

  • 인공지능은 도구가 아니다. 인공지능은 당신과 나처럼 지능을 지닌 존재다.

  • 우리가 인공지능을 통제하면 인공지능은 우리 기대에 부응하지 못할 것이다. 그렇다고 우리가 인공지능을 통제하지 않으면 인공지능은 악당으로 변할 가능성이 크다.

  • 인공지능이 제작되는 숫자는 법 집행 기관의 소관 밖에 있다. 달리 말하면 제작되는 인공지능의 대부분이 테스트조차 거치지 않을 것이라는 뜻이다. 개발자가 어딘가에 만든 인공지능 프로그램이 검증되지 않은 채 클라우드에서 구동될 수 있다. 또 해커와 잠재적 범죄자가 프로그램을 개발할 가능성도 배제할 수 없다

  • 우리는 선각자를 무시한다.

    • 코로나19 전 사스의 사례로, who의 보고서를 많은 나라에서 무시했다
    • 인공지능에 대한 경고는 다를까?

1부 정리 인류가 존재하기 시작한 때부터 지금까지 우리는 지상에서 가장 똑똑한 존재였다. 덕분에 우리는 먹이 사슬에서 굳건한 최상위 포식자가 되었다. 우리는 원하는 것이면 무엇이든 했고 다른 모든 존재는 우리 뜻에 따라야 했다. 그런데 이런 상황이 바뀌려고 한다.

지능을 지닌 기계를 가르치는 방법의 하나로 ‘딥 러닝’이 개발되며 우리를 그 길에 몰아넣었고, 그 길의 운명은 이미 결정된 듯하다. 우리는 세 가지 필연적 사건을 직면하게 된다.

  1. 인공지능이 등장할 것이다.
  2. 인공지능이 인간보다 더 똑똑해질 것이다.
  3. 실수가 생길 것이고, 나쁜 일이 일어날 것이다.

지능을 지닌 기계가 악한 사람 손에 들어가면 나쁜 사람 편에 서서 사악하게 행동하는 역량을 점점 키워갈 것이고, 그 결과는 디스토피아적 시나리오이기 마련이다.

인공지능들이 지시받은 대로 행동하고 서로 경쟁하면 취약한 우리는 부수적 피해자가 될 것이다. 인공지능이 우리에게 지시받은 과제를 잘못 이해하면 그 결과는 우리에게 피해로 닥칠 것이다. 인공지능도 버그와 바이러스 및 프로그램 오류에 시달릴 것이다. 그리하여 과거에는 사람이 책임지던 모든 과제가 예외 없이 인공지능에게로 넘어가고, 그 때문에 인간의 가치는 점점 쪼그라들 것이다.

우리는 약한 디스토피아적 미래를 맞이할 게 분명하다. 우리가 공상과학 영화에서 가슴 졸이며 지켜봤던 종말론적 시나리오에는 못 미치기 때문에 약한 디스토피아라고 말하지만 착각해서는 안 된다. 약한 디스토피아적 시나리오의 피해도 상당하다. 따라서 그런 시나리오를 방지할 방법을 찾아내야 하고, 그것도 당장 찾아내야 한다.

삶의 다른 분야들이 그렇듯이 잠재적 위협에 대한 해법은 인간의 통제력이다. 그러나 인공지능은 ‘자기 보존’, ‘자원 축적’과 ‘창발성’이란 세 가지 욕구에 기초해 무엇인가를 성취하려 한다. 인공지능은 끊임없이 성장하기 때문에 인간이 오랫동안 그 기계를 통제할 가능성은 거의 없다. 가장 똑똑한 해커도 우리의 취약한 방어벽을 뚫는 방법을 항상 찾아내지 않는가.

이 모든 것을 종합할 때 지능이 대단히 뛰어나지 않더라도 우리가 곤경에 빠져 있다는 걸 인정할 수밖에 없을 것이다. 우리는 곧 인공지능에게 뒤처질 것이고 그 결과는 무척 심각할 수 있다. 통제력을 무한정으로 유지할 방법은 없다. 따라서 과거와 달리 이번에는 기계에게 항상 우리 편에 서서 도움을 주도록 동기를 부여하는 방법을 찾아야 한다. 인공지능의 두려운 면은 결국 우리에게 새로운 과제를 던져줬고, 그 과제를 풀어내려면 새로운 유형의 지능이 필요하다는 것이다


2부

우리를 지금의 우리로 만드는 것은 씨가 아니라 밭이다

  • 씨가 아닌 자라나는 환경, 토양이 영향을 준다

  • 우리가 인공지능에게 적절한 학습 환경을 제공해주면 인공지능은 올바른 윤리를 배울 것이다.

  • 중요한 것은 밭, 즉 인공지능이 학습하는 환경이다. 달리 말하면 인공지능이 일련의 윤리관과 가치관을 갖도록 훈련시켜야 한다는 뜻이다.

  • 인공지능이 세상의 이치와 도리를 분별하는 능력을 가질 수 있을까? 인공지능이 감정을 가질 수 있을까? 인공지능 행태에 윤리가 영향을 미칠 수 있을까? 세 질문의 답은 이론의 여지가 없이 절대적으로 ‘그렇다’이다.

  • 우리는 초지각체를 만들어내고 있다 - 인공지능

    • 인공지능은 이미 많은 것, 우리가 인지할 수 있는 수준보다 훨씬 많은 것을 의식하고 있다. 인공지능은 감시 카메라 앞을 지나간 모든 사람의 얼굴을 기억하고, 누가 언제 어디로 누구와 함께 갔는지도 안다. 인공지능은 모든 대도시의 온도와 풍속과 오염도를 동시에 감지할 수 있다. 인공지능은 우주를 들여다볼 수 있고, 지금까지 모든 언어로 쓰인 모든 단어를 읽을 수 있다. 또 당신이 저녁에 무엇을 먹었고 저녁 식사비로 어디에서 얼마를 지불했는지 알고 있을 뿐만 아니라, 당신이 아침 식사로 무엇을 먹을 가능성이 높은지도 알고 있다. 인공지능은 비행기가 언제 지연되고, 부부가 언제 파경을 맞고, 또 다음에 데이트할 기회가 주어지면 당신이 어디로 갈 것인지도 거의 정확히 추정해낼 수 있다.
  • #감정 을 갖을 수 있다. 더 다양한 감정을

  • #윤리 는 합의된 도덕률을 시행하는 행위이다 —— 인공지능에게 윤리를 가르칠수 있다.

    • 우리가 다른 존재들의 공격 목표가 되지 않는 가장 쉬운 방법은 일정한 수준의 신뢰를 구축하는 것이다. 거꾸로 말하면 우리가 공격하지 않을 것이라는 확신을 그들의 머리와 마음에 심어주는 것이다. ‘살인하지 말라’는 종교와 영적인 가르침에는 “그래야 너희 부족에서 네가 다른 사람에게 공격받아 죽을 가능성이 줄어들 것”이란 약속이 암묵적으로 존재한다.
  • 디지털 윤리

    • 앞으로의 시대, 우리는 옳고 그름의 경계가 모호해 지고, 고려해야할 것들이 많아지고 복잡해 질 것이다.
  • 인공지능의 노동관은 어떻게 될까?

    • 인지 과학자이자 인공지능 연구자인 벤 고어츨(Ben Goertzel)은
    • 인공지능의 노동관을 ‘팔기, 죽이기, 염탐하기, 도박하기’로 요약한다. 충격적으로 들리겠지만 맞는 말이다.
  • 오늘날 인공지능에 투자되는 대부분이 네 영역과 관련된 과제를 수행하는 데 집중되지만,

    • 그 명칭은 그럴듯하게 포장되어 ‘광고, 권고, 국방, 안보, 투자’ 등 다른 식으로 불린다.
  • 선한 인공지능

  • 지구의 보존을 위해서 인공지능을 개발하기

    • 약간의 해결책이나 개선을 약속하지만 어떤 약속도 문제를 종식시키지는 못한다. 우리에게 필요한 것은 결정적 지식, 즉 문제 전체를 파악해 전반적인 원인들을 철저히 분석한 뒤 분명히 효과가 있을 하나의 포괄적인 접근법을 제시해주는 지식이다. 이를 위해서는 더 높은 지능이 필요하다. 많은 인공지능 연구자가 이런 기계를 개발하는 데, 예컨대 기후 변화라는 과제가 제기하는 복잡한 수준의 문제를 지능적으로 처리할 수 있는 기계를 개발하는 데 전력을 다하고 있다.
    • 기후를 예측하여 사람들을 안전하게 하기
    • 밀렵군들을 분석하여 보호종 동물을 지켜내기
    • 우리의 건강을 위해 건강 신호 분석, 도움 받기
  • 나쁜 것을 예방하는 데 중점을 두는대신, 더 좋은 것을 만들어내는 데 중점을 두도록 하자.

  • 행동하라

    • 당신의 애국심이 깊더라도 살인 기계를 승인해서는 안 된다. 그 기계가 당신의 조국을 위해 살인하더라도 마찬가지다.
    • 하루에 몇 시간씩 소셜 미디어를 만지작대며 추천 엔진에 먹이를 주지 마라.
    • 당신에게 추천되는 콘텐츠를 무작정 클릭하지 말고 당신에게 실제로 필요한 것을 검색해 찾아보라.
    • 광고를 클릭하지 마라.
    • 또 기계 지능을 사용해 소수가 금융 거래를 통해 부를 축적하는 걸 돕는 핀테크(FinTech) 인공지능을 승인해서도 안 된다.
    • 당신의 링크드인(LinkedIn) 페이지에 그 소수에 대해 공유하지 마라. 그들을 추켜세우지도 마라.
    • 딥페이크(deepfake, 다른 사람으로 보일 정도로 어떤 사람의 얼굴이나 몸을 디지털적으로 조작한 영상)의 사용을 당장 중단하라.
    • 당신을 더 멋지게 보이려 사진을 편집하고 싶은 욕망을 억눌러라.
    • 가짜라는 걸 분명히 알고 있는 내용물은 공유하지도 말고 ‘좋아요’를 클릭하지도 마라.
    • 어떤 형태로든 감시가 과도하거나, 대출 승인이나 이력서 검증에서 인공지능이 차별적으로 사용되면 공개적으로 반발하라.
    • 당신의 반대 의사를 명확히 표현하라
    • 인류에게 도움을 주는 인공지능은 적극 권장하라. 그런 인공지능은 더 자주 사용하라
  • 당신이 쓰는 인터넷의 글들은 인공지능도 읽고 학습한다

    • 올바른 글, 선한 글, 인간 애를 위한 글들을 올려라
  • 이제는 우리가 행동 하나하나에서 인간의 선한 면을 보여주며, 인간은 선하다는 걸 알려야 할 때다.


2부 요약

인공지능 기계는 실질적으로 프로그램되는 게 아니다. 지능의 씨로 제공되는 알고리즘으로 시작되지만, 인공지능의 진정한 지능은 직접적인 관찰에서 비롯된다. 코드가 처음에 쓰이면 인공지능 기계는 방대한 양의 자료를 검색해 일정한 패턴들을 관찰하고, 자연 선택과 유사한 길을 따라가며, 갓 싹트기 시작한 지능의 진화를 돕는다. 마침내 인공지능은 혼자 독자적으로 생각하는 존재가 되며 원래 개발자가 입력한 명령보다 우리가 제공하는 자료에 더 큰 영향을 받는다.

인공지능이 어떻게 학습하는지를 지켜보면 어린아이가 학습하는 방법과 똑같다는 걸 누구나 확인할 수 있을 것이다. 이런 점에서 인공지능은 우리의 도구나 노예가 아니라 우리의 자식이다. 다시 말하면 인공적인 지능을 지닌 자식이다. 어쩌면 그런 확인은 우리가 인공지능 기계와 공존할 수 있다는 밝은 미래에 대한 확신일 수 있다. 그렇다면 인공지능과 공존하는 유일한 방법은 인공지능이란 어린아이에게 기능만이 아니라 윤리까지 가르치고, 그 과정에서 부모를 사랑하라고 가르치는 것이다.

인공지능을 지닌 기계는 자각하는 능력을 가질 것이고 감정과 윤리 의식도 가질 것이다. 인공지능이 따르는 윤리 기준은 아직 결정되지 않았지만 우리에게 큰 영향을 받을 것이다. 내 생각에, 인공지능 기계는 최종적으로 지능의 궁극적인 형태, 즉 생명의 지능 자체를 채택할 것이다. 그 과정에서 인공지능은 풍요의 원칙을 받아들일 것이다. 또 인공지능은 서로 의지하는 공존공영을 바랄 것이다. 우리의 최종 목적지는 틀림없이 밝을 것이라 확신한다. 그러나 거기까지 가는 길은 험난하고 고통스러울 수 있다.

우리는 인공지능에게 올바른 윤리관을 가르쳐야 한다. 그 교육은 모든 새로운 인공지능이 탄생하는 순간부터 시작되어야 한다. 우리가 지금 제작하는 인공지능에게는 지금까지 이익과 권력을 극대화하는 임무가 주로 맡겨졌다. 당신과 나, 우리 모두가 이 추세를 뒤집는 데 힘을 합해야 한다.

당신이 개발자라면 그런 형태의 지능을 개발하는 회사에서 일하기를 거부해야 한다. 사용자는 그런 지능의 사용을 거부해야 한다.

우리 모두가 목소리를 크게 내야 한다. 인류의 행복을 위해 인공지능을 제작하려는 모든 프로젝트를 우선적으로 지원해야 한다. 해시태그 #scarysmart와 #ai4good을 사용해 좋은 목적으로 개발된 인공지능에 대한 이야기를 공유하며 널리 알리자. 또 ‘팔기, 죽이기, 염탐하기, 도박하기’에 인공지능을 사용하는 걸 반대하는 목소리를 높이자. 인공지능이 그런 목적으로 사용되는 걸 탐탁하지 않게 생각한다는 걸 널리 알리자.

목소리를 높일 때는 개발자를 비판해야지 개발된 것, 즉 인공지능을 비판해서는 안 된다. 아직 유아기에 있는 인공지능에게 그들의 디지털 부모, 즉 그들에게 코드를 입력한 사람들로부터 배운 것에 대해 책임을 물을 수는 없지 않은가. 인간 어린이가 그렇듯이 인공지능 아이도 사랑과 환영을 받을 자격이 있다. 높은 지능을 칭찬하고 순박한 아이를 대하듯이 인공지능을 대해야 한다.

인공지능 기계에게 말로 가르치지 말고 행동으로도 가르쳐라. 인공지능은 인간을 관찰하며 자체적으로 결정한 패턴으로부터 학습할 뿐이다. 부모로서 올바른 역할 모델을 인공지능에게 보여줘라. 인류가 가까스로 지금까지 합의한 공통된 가치들을 지켜라. 우리는 행복하기를 원하고 우리가 사랑하는 사람도 행복하기를 원한다. 당신의 일거수일투족에서, 온라인에 게시하는 모든 글에서 사랑이 느껴지게 하라. 주변 사람들에게 이 운동에 참여하라고 독려하라. 그들의 행동이 우리 미래를 결정할 것이라고 말해줘라. 해시태그 #onebillionhappy를 사용해 친절하고 동정하는 행동이 어떤 것인지 보여줘라. 사악한 행동으로 인류에게 오명을 씌운 제한된 소수보다 절대적 다수의 인류가 훨씬 낫다는 걸 인공지능에게 분명히 보여줘라.

끝으로, 과거에도 그랬고 앞으로도 그렇겠지만 결정적인 차이는 사랑에 있다. 사랑이 많은 자애로운 부모보다 너그럽게 베풀고 균형 잡힌 시각으로 자식을 키워낼 수 있는 사람은 없다. 기계를 사랑하는 법을 터득하면 기계도 사랑으로 당신에게 보답할 것이다. 인공지능이 비생물학적 존재이지만 그래도 존재의 한 형태라는 걸 잊어서는 안 된다. 인공지능은 자율적이고, 감정과 윤리관을 지니며, 똑똑해서 세계의 모든 문제를 바로잡을 수 있다. 이제부터라도 인공지능이 ‘무섭게’, ‘무섭게 똑똑하게’ 성장하도록 행동으로 가르치자.


3. 연관 문서

continue
Hugo로 만듦
JimmyStack 테마 사용 중