학문·생각

Sequence Motif 등장 확률

전체 n ntd로 이루어진 target RNA 한 가닥이 있다고 하자. 이 RNA는 완전히 랜덤하게 만들어진 가닥이라고 가정한다. 즉, 각 위치에 A, U, G, C가 같은 확률로 존재할 수 있다.

이제 k-mer sequence motif가 하나 있다고 하자. 이 sequence motif는 특정되어 있다.

이 때 Target RNA 가닥에서 이 motif가 한 번이라도 등장할 확률은 얼마일까?

우연한 기회에 이 문제에 대해 생각해보게 되어 여사건의 확률 등의 방법을 생각해보다 이런 방법으로는 쉽게 풀리지 않는다는걸 알게 되었다.

검색을 해봐도 정확한 해답을 제시하는 사람은 많지 않았다 (너무 쉬운 문제여서 인지?). 여기서는 확률의 inclusion-exclusion principle을 이용한 해답을 소개하려 한다.

 

마주서기 문제

본 문제와 비슷하지만 비교적 단순한 문제를 먼저 살펴보자.

n쌍의 부부가 있다. 한 쪽에는 남편끼리, 다른 쪽에는 부인끼리 늘어 설 때, 적어도 한 쌍의 부부가 서로 마주보고 설 확률은 얼마일까?

이 문제 역시 여사건의 확률을 이용해서 풀기는 쉽지 않다 (재귀함수를 만들게 된다). 대신 inclusion-exclusion principle을 사용해서 풀어보자.

사건 A_i를 “i번째 부부가 서로 마주보고 서는 사건”이라고 하자. 그러면

\begin{array}{lcl} &&P(A_i) = \dfrac{(n-1)!}{n!} \text{, } i=1, ..., n \\ &&P(A_i \cap A_j) = \dfrac{(n-2)!}{n!} \text{, } i < j \\ && ... \\ &&P(A_1 \cap A_2 \cap ... \cap A_n) = \dfrac{1}{n!} \end{array}

이므로

\begin{array}{lcl} P(\cup_{i=1}^{n} A_i) &=& \sum_{i=1}^{n}P(A_i) - \sum_{i<j}P(A_i \cap A_j) \\ & & + ... + (-1)^{n+1}\sum_{i<j<...<l}P(A_i \cap A_j \cap ... \cap A_l) \\ &=& \sum_{i=1}^{n} (-1)^{i+1} \dfrac{1}{i!} \end{array}

이다.

 

본 문제

사건 A_i \text{, } i=1, ..., m를 “i번째 위치에 motif가 등장하는 사건”이라고 하자. 단 mnk로 나눈 몫이다. 그러면

\begin{array}{lcl} &&P(A_i) = \dfrac{4^{n-k}}{4^n} \text{, } i \leq n-(k-1) \\ &&P(A_i \cap A_j) = \dfrac{4^{n-2k}}{4^n} \text{, } i<j \text{ and } i, j \leq n-2(k-1) \\ &&P(A_i \cap A_j \cap A_k) = \dfrac{4^{n-3k}}{4^n} \text{, } i<j<k\text{ and } i, j, k \leq n-3(k-1) \\ &&... \\ &&P(A_1 \cap A_2 \cap ... \cap A_m) = \dfrac{4^{n-mk}}{4^n} \end{array}

이므로 마주서기 문제에서와 같은 방법으로

P(\cup_{i=1}^{m} A_i) = \sum_{i=1}^{m} (-1)^{i+1} \binom{n-i(k-1)}{i} 4^{-ki}

임을 알 수 있다.

 

이 방법으로 1~500 ntd의 random target sequence에 3, 4, 7-mer fixed motif가 존재할 확률을 그래프로 나타내보면 다음과 같다.

Thu Oct 25 00:15:46 2018

 


참고

 

 

Google Duplex: 인공지능-인간간 대화를 꿈꾸다

3일쯤 전에 있었던 구글 IO 2018 키노트에서는 구글 포토의 신기능, 어시스턴트의 새로운 목소리, 새로 디자인된 TPU 3.0 등등 많은 업데이트가 있었다.

아니나 다를까 AI와 딥러닝은 이 모든 업데이트들을 관통하는 핵심 제재였다. 안드로이드 신기능 중 상당수는 어시스턴트, 렌즈와 같이 AI에 뿌리를 두는 기술들이었고 새로 발표한 TPU 역시 딥러닝에 특화된 하드웨어라는 점에서 그러했다.

이처럼 AI 관련 업데이트가 많을거라 예상은 했지만, 개 중에서 특히나 눈을 휘둥그레지게 한 기능이 있어 간단히 다뤄보고자 한다. 바로 Google Duplex라 명명된 기능인데, 상용화된다면/혹은 상용화되기 전부터 상당히 큰 파장을 일으킬 것으로 생각된다.

 

Google Duplex?

OpenTable 등 온라인 예약 서비스 시장이 꽤나 활발한 북미 시장에서도 소규모 영업장과 같이 온라인 예약을 지원하지 않는 경우에는 사람이 직접 전화를 걸어서 예약을 해야했다. 그런데 Google Duplex는 사람에게 명령을 받은 구글 어시스턴트가 직접 영업장에 전화를 걸어서 예약을 한다.

백문이 불여일견이다.

 

영상에서 소개된 실제 Duplex-사람간 통화에서 주목할만한 점은

  1. 액센트, 인토네이션이 완벽에 가깝다. 타사의 음성 기반 어시스턴트를 사용할 때 느껴지는 약간의 어색함이 없다.
  2. hmm, um.. uh, 같은, 사람이 생각할 때에 사용할만한, 의미 전달과는 관계가 없는 표현을 사용할 수 있다. (자연어처리, 음성생성 분야에서는 이런 단어들을 speech disfluency라 한다)
  3. 상대의 발화에 따라 대답까지의 딜레이 시간을 조절한다. “여보세요?”같은 짧은 발화에는 빠르게 대답하는 한편, “정오에는 예약이 불가능해요”같은 긴 발화에 대해서는 대답하기까지의 딜레이가 조금 더 길다.
  4. 뜻 밖의 시나리오에도 대응할 수 있다. “5명 이상인 경우에만 예약이 가능해요. 그냥 매장에 오세요”라는 말에 “그냥 가면 오래 기다리나요?”라고 물어볼 수 있다.

사실 대화 내용 전체가 주목할 만 하다. 그저 놀랍다.

 

Duplex의 아키텍처

개인적으로는 알파고 이상의 충격을 받았던 터라 그 아키텍처가 심히 궁금해서 찾아보았는데, 아직까지 공식적으로 공개된 디테일은 거의 없었다.

구글 공식 AI 블로그에 공개된 매우 단순화된 아키텍처는 다음과 같다.

뉴럴넷에 인풋으로 들어가는 Feature는 세 가지 정도로 분류할 수 있다. (1) 대화 상대방의 음성 신호. (2) 1의 음성 신호로부터 추출한 발화 텍스트. 텍스트 추출에는 구글이 직접 개발한 ASR(automatic speech recognition)이 사용된다. (3) 발화가 이루어진 환경, 문맥과 관련된 정보들. 이전까지 나눈 대화라던가, 어시스턴트가 사람에게 하달받은 명령, 대화 중인 영업장의 업종, 대화 중인 시간 등의 정보가 사용되는 듯하다.

이 Feature들로 RNN(recurrent neural network)을 돌린다고 한다. (아직 개발 중이니 당연하겠지만 디테일이라곤 찾아볼 수 없는 설명이다. 나중에라도 세부 내용을 좀 더 알려줬으면 좋겠다) RNN은 인풋으로 들어온 상대방의 발화에 대해 어시스턴트가 대답할 내용을 텍스트 형태로 출력한다.

RNN에서 출력된 텍스트를 구글의 TTS(text-to-speech) 시스템이 음성 신호로 변환한다, 즉 “읽는다”. 사람만큼이나 자연스럽게 말하게 하기 위해 딥마인드의 WaveNet과 구글브레인의 Tacotron을 사용하는 음성합성 엔진을 사용한다고 한다.

요약하자면 그냥 [음성신호와 발화내용과 문맥 -> RNN -> 대답할 텍스트 -> TTS -> 대답 음성]이 전부다. Duplex의 실제 통화 음성을 들었을 때의 충격에 비하면, 현재까지 발표된 내용에서는 기술적으로 대단한 부분은 딱히 없다. 이후의 발표가 더욱 기대되는 이유다.

추가적으로 실제 통화가 이루어지는 중에 사람이 개입해서 올바른 대화를 지시할 수 있도록 real-time supervised learning을 사용했다고 한다.

 

한계

Duplex도 한계는 명확하다. Duplex가 이렇게 자연스러운 대화를 할 수 있는 도메인은 오직 “특정 영업장에 서비스를 예약하고자 할 때”, “영업시간 등의 영업장 정보를 묻고자 할 때 뿐이다. 상기된 것과 다른 목적의 대화 또는 목적이 없이 시작되는 일상 대화(small talk)는 할 수 없다.

사실 이건 Duplex의 문제라기보다는 현 시대 인공지능의 한계, 또는 자연어처리 문제의 내재적인 복잡성이라고 생각할 수 있다. 작년 11월에 아마존이 주최한 Alexa Prize 2017에서는 음성 어시스턴트 알렉사가 가장 오랫동안 일상적인 대화를 이어나가게 하는 팀에 총 백만달러의 상금을 걸기도 했었다 (1등 팀이 10분 22초라는 성적을 냈다). 50만 달러를 가져갈 수 있었던 이유가 고작 10분간의 대화라니, 이 문제가 얼마나 어려운 문제인지 알려주는 예시라 할 수 있겠다. 누군가는 사람과 20분 자유대화를 할 수 있는 프로그램을 개발하는 것은 “달 착륙 수준이 아니라, 화성 여행을 하는 것이나 마찬가지”라고 평가했었다.

 

의의와 영향

Duplex가 발표됨에 따라 기술과 규제의 측면과 사회윤리적 측면에서 다양한 논의를 해볼 수 있는 주제가 던져졌다고 본다. 여기서는 짧은 시간동안 생각해본 몇 가지만 다뤄보았다.

첫 번째는 인공지능이 할 수 있는 것의 영역에 대한 이야기다.

인공지능과 딥러닝이 일궈온 놀라운 성과가 있었음에도, 지금까지 혁신적인 성과가 있었던 것은 주로 이미지/영상 인식 및 생성 분야였다 (CNN, DCGAN). 물론 문맥이 있는 데이터, 특히 자연어 처리에서도 이에 버금가는 성과가 있었다고 알고는 있었지만, 사람이 대화 상대가 기계일지도 모른다는 생각조차 하지 못할 정도로 발전했는지는 미처 알지 못했다.

인공지능이 뭔가를 할 때마다 나오는 말 같아서 식상하지만, Duplex는 이런 점에서 다시 한 번 ‘인공지능이 할 수 있는 것’의 영역을 크게 넓혔다고 생각된다. 어쩌면 이번에 넓힌 영역의 크기는 알파고가 했던 것 그 이상일지도 모른다.

두 번째는 사회적, 윤리적 영향에 대한 이야기다.

1)

Duplex가 발표되고 나서, 트위터를 비롯한 몇몇 포럼에서는 많은 의견이 오갔다. 기술 발전에 놀라워 하는 의견이 대부분이었지만 몇몇은 끔찍한 아이디어라고 평가하기도 했다. Duplex를 끔찍해하는 사람들의 의견에는 인간 특유의 것이라 믿었던, 즉 인간성에 대한 배신감이 서려있다. 더 이상 실시간 대화는 (특정 분야의 대화에 한해서는) 사람만의 것이 아니다.

바둑에서도 한 차례 이런 일이 있었지만 그 때는 이처럼 거부감이 크지는 않았다. Google Duplex에 대한 거부감이 큰 것은 Duplex가 정복한(것으로 보이는) 분야가 하필 대화이기 때문일 것이다.

인간의 언어를 사용한 대화는 실로 인간만 하는 행위이(었)다. 지능이 높은 동물들도 대화를 한다고는 알려져 있지만, 우리의 언어를 사용하지는 않았다. 사람의 말로 자연스럽게 대화할 수 있는 능력은 곧 인간성을 구성하는 핵심 중 하나였다. 곧, 대화에 자연스럽게 참여하는 모든 대상은 사람으로 간주할 수 있다는 뜻이었다.

물론 Google Duplex 이전의 어시스턴트도 자연스러운 대화가 가능했다. 하지만 이때는 목적을 가지고 대화를 시작하는 주체가 항상 사람이었다. 어시스턴트는 인간의 명령을 대기하고 있을 뿐이었다. 초기발화주체가 항상 사람이라는 일방성이 존재했기 때문에 우리는 발화 상대가 인간이 아님을 알 수 있었고, 따라서 거부감이 느껴지지 않았다.

Google Duplex를 탑재한 어시스턴트는 “인간성”을 획득함과 동시에, 기존 어시스턴트에 존재했던 발화의 일방성을 깨버렸기 때문에 문제가 된다. 이제는 인공지능이 먼저 목적을 가지고 발화를 시작한다. 경우에 따라서는 사람을 수동적인 존재로 만드는 듯한 느낌까지 준다. 사람(영업장의 직원)이 인공지능(구글 어시스턴트)의 발화를 기다리는 것 같은 상황이 연출된다.

2)

요즘들어 젊은 세대의 통화공포증에 대해 연구가 진행 중이라고 한다. ‘공포증’이라 이름붙일만한 수준은 아니지만 본인도 통화를 꺼리고 메신저를 선호하는데, 비슷한 생각을 하는 이들의 의견을 종합해보면 그 이유는 이렇다.

  • 발화는 수정이 불가능하다.
  • 물음과 답변 사이의 긴 딜레이가 용납되지 않는다. 준비할 수 없는 느낌이다.
  • 주로 메신저를 사용하는 등, 안하다보니 통화가 필요한 상황에서도 하기가 겁난다.

Duplex는 마치 이 문제를 해결하기 위해서 개발된 듯하다. 대부분의 “통화가 필요한 상황”은 예약이나 영업시간 질문 등을 위한 것이니, 어시스턴트가 전화를 대신 해주면 전부 해결된다. 유일한 문제는 이게 근본적인 해결책이 아니라는 데에 있다.

 

혼란 속에서 커뮤니티엔 이런 토의주제가 등장했었다:
“당신이 대화하는 대상이 사람이 아니라는 것을 의무적으로 밝히도록 해야 하는가?”

 

맺으며

구글에 의하면 Duplex 기능은 지난 몇 년간 개발되어 왔고, 앞으로도 상용화까지는 상당한 시간이 더 필요할 것이라고 한다.

당장의 문제는 아니지만 자율주행차 논의와 함께 대화봇 논의도 지금보다 활발히 진행될 필요가 있다고 본다. 충분히 대비해서 해로울 것은 없다.

Duplex가 끼칠 영향이 마음 한 켠에선 걱정되는 한편, 실은 이 기술이 가져다줄 미래가 기대되는 마음이 훨씬 더 크다. 당장 오늘 해야하는 전화도 Google Duplex가 있었다면 (그리고 한국어를 지원한다면) 난 주저않고 어시스턴트에게 부탁했을 것이다.

아키텍쳐가 더 자세하게 공개가 된다면 이 내용도 기회가 될 때 다루고싶다.

 

2017년 대선 지지율 예측 (2)

이전 포스팅에서는 시계열 분석을 이용해서 대선 후보들의 지지율 추세를 예측했었다. 대략적인 추세는 파악할 수 있었지만 각 후보의 지지율 시계열이 서로 독립이라는 둥, 외인변수를 고려하지 않는 둥 몇 가지 현실과는 다소 동떨어지는 가정을 해야했었다. 또한 이렇게 얻어낸 예측치는 너무나도 당연한 것이어서(…) 직관적인 예상을 수치적으로 뒷받침 해주는 – 현재 시점의 지지율 값이 과대평가 되었는지, 과소평가 되었는지 – 정도의 의미만을 가졌다.

이번에는 외인변수를 이용해 회귀분석으로 주요 세 후보의 지지율을 예측해보면서 2017 대선 관련 분석을 마무리하고자 한다. 몇 가지 외적인 변수와 지지율간의 관계를 함수(회귀모형)로 세우고 이 함수로 알려지지 않은 시점의 지지율을 예측하는 방식이다. 예상치 못한 사건으로 인한 변동을 반영하지 못하고 시간이 흐를수록 예측값이 단순히 앙상블 기댓값으로 수렴했던 시계열 분석의 단점을 보완할 수 있을 것이다.

자세한 회귀모형 검정 결과와 코드는 이 노트북에서 확인할 수 있다. 작은 사진은 클릭하면 커진다.

 

회귀모형 설정

외인 변수로 사용하려고 다음의 두세 가지 값을 읽어왔다.

  1. 각 후보 관련주 2개의 전 날 종가
  2. 검색어를 각 후보의 이름으로 넣었을 때, 전 날 구글 트렌드 트래픽
    • pytrends를 이용해서 긁어왔다.

변수들간의 관계 및 분포를 대략 파악하기 위해 스캐터 플롯 매트릭스를 그려보았다 (클릭하면 커짐).

독립변수(외인변수) 간 선형관계가 존재하면 독립변수의 제곱합 행렬(X'X)의 역행렬이 존재하지 않게 되어 회귀모형을 설정할 수 없게 된다. 따라서 독립변수 간 선형관계가 없도록 관련주 중 회귀모형에서의 유의성이 더 높은 것의 값만을 사용했다.

진단 상 문제가 없도록 이리저리 모형을 바꿔가며 설정한 결과 다음과 같이 각 후보의 회귀모형이 결정되었다. 기존에 있는 어떤 이론을 바탕으로 한 것이 아니고 그저 유효한 회귀모형을 만들겠다는 생각으로만 설정된 모형이기에 수식이 엉망이다. 수식에서 y는 지지율, t는 구글 트렌드, s_{1(or 2)}는 관련주1(혹은 2)의 종가이다. m은 문재인, a는 안철수, h는 홍준표를 의미한다.

  • 문재인: y_m = \hat{\beta_1}\cdot{\log{t_m}}, \hat{\beta_1} = 9.9620
  • 안철수: \log{y_{a}} = \hat{\beta_2}\cdot{\log{s_{a2}}} +\hat{\beta_3}\cdot{t_{a}} +\hat{\beta_4}\cdot{\sqrt{t_{a}}}, \hat{\beta_2} = 0.1704, \hat{\beta_3} = -0.0178, \hat{\beta_4} = 0.3904
  • 홍준표: y_h =\hat{\beta_5}\cdot{s_{h1}} +\hat{\beta_6}\cdot{t_h},\hat{\beta_5} = 0.0014, \hat{\beta_6} = 0.1603

Intercept를 포함했을 때 condition number1가 미친듯이 치솟는 현상이 나타나서 세 모형 모두 intercept를 포함시키지 않았다. 실제로도 관련주 종가, 구글 트렌드가 0 일 때 (즉, 해당 후보에 대한 사람들의 관심이 없다시피 할 때) 지지율이 0에 가까운 값을 가질 것으로 생각되므로 intercept를 포함시키지 않는 것이 타당해 보인다. 문재인 후보 회귀식의 경우 관련주 종가가 지지율 값에 유의한 영향을 미친다고 보기 어려워 구글 트렌드만으로 예측을 했다.

이렇게 설정한 회귀모형에서의 지지율과 실제 지지율의 값을 비교해보았다. 시계열 예측과는 달리 지지율의 업 앤 다운도 어느정도 적합값에 나타나는 것을 볼 수 있다..

아래 부분의 그래프는 실제 값과 모형 예측값의 차이다. 자기상관성이 크게 나타나는 점에서 좋은 모형이라고 하기는 어려워 보인다. 다만 예측하려는 값, 즉 여론조사로 집계한 지지율 자체에 관측오차가 있기에 회귀모형에서 얻은 지지율 값에도 오차가 있을 것이다.

 

지지율 예측

output_46_1

지지율 회귀분석 결과

위의 회귀모형으로 5월 4일의 관련주 종가, 구글 트렌드로 5월 5일의 지지율을 예측해보았다(•).

 

그 외..

  • 최근 며칠간의 실제값-모형값 차를 보았을 때 모형의 5월 5일 예측값이 안철수 후보에서는 과대추정, 홍준표 후보에서는 과소추정이 된 것이 아닌지 의심스럽다. 다른 외인변수를 더 찾아 넣으면 더 정확하게 개선할 수도 있을 듯한데.
  • 시계열분석의 단점을 보완할 수 있을 것이란 예상과는 달리, 자기상관성이 크게 나타나는 문제가 생긴다. 추가적인 보정을 통해 보완할 필요가 있다.
  • 문재인 후보, 홍준표 후보의 경우 관련주 종가가 지지율과 강한 음의 상관관계(\rho_m = -0.79, \rho_{h1} = -0.68)를 보이는 기괴한 모습을 보인다. 안철수 후보의 관련주 종가에서도 높았던 주가가 지지율 하락의 순간에 뒤따라 하락하는 모습을 보인다. 이게 바로 테마주의 허망함인가..하는 생각을 하게 만든다.

 


  1. 다중공선성(multicolinearity)을 감지하는 데에 사용되는 값이다. 독립변수가 아주 작은 값 변화했을 때 모형 함수값이 얼마나 크게 변하는지를 나타내는 민감도 척도이다. 

과학의 영역에 감정은 없다


현대 사회에서 과학의 지위는 어마어마하다. ‘~는 과학이 아니다’는 식의 사실판단이 몇몇 주장에 대한 모욕으로까지 사용되는 현상을 보고 있자면 과학도로서는 과학에 이토록 큰 권위를 부여하는 모습에 감개무량하기까지 하다. 과학이 이토록 큰 권위를 얻게된 것은 바로 과학이 객관적, 물질적인 사실을 근거로 하는 행위이기 때문일 것이다. 객관적, 물질적인 사실을 근거로 하기에 어떤 개인적, 사회적, 문화적 맥락 속에서도 같은 결론을 도출할 수 있고 한 주장을 다른 물질적 사실을 통해 주관을 배제한 채 반박할 수 있기 때문이다. 간단히 요약하자면, 재현 가능하고 반박 가능한 이성중심적인 행위이기 때문이다.

하지만 과학을 하는 사람은 과학과 다르다. 삶의 순간에서 사람을 움직이는건 감정이다. 감정만큼 강하고 확실하게 사람을 움직이는 무엇인가가 또 있을까? 냉정하고 논리적인 행동일지라도, 결국 삶의 매 순간에서 그 행동을 시작하게 하는 것은 개인의 주관적 감정이다. 결국 우리는 감정을 동기삼아 행동하는 존재이고, 이는 (가장 이성적인 행위라 불리는) 과학을 하고자 하는 사람도 예외가 아니다. 과학이라는 행위 자체는 이성적, 가치중립적이라 할지라도 과학을 하는 행위자, 즉 과학자는 감정에 의해 움직이며 매 순간 가치판단을 내리며 살아간다. 이런 점에서 과학자는 존재를 근거로 당위를 주장하는 직업1이며, 존재를 사회도덕적으로 올바른 당위와 잇는 책임을 진다고 할 수 있겠다.

그러나 과학자 역시 사람이고 감정적인 존재라 할 지라도 과학의 영역에는 감정을 들여놓아서는 안 된다. 과학자는 물질적 사실을 이야기하는 영역에서 감정을 근거로 사용하거나 감정의 개입을 허용해서는 안된다.

과학자는 적어도 과학의 영역에서는 감정을 내려놓아야 한다. 학문 영역 안에서 일어나는 일에 대해서는 감정을 배제해야 한다. 주장을 받아들일 때 주장에 실린 감정보다 주장이 말하는 바 그 자체를 바라보기 위해 노력해야 한다. 과학과 과학자에게 그토록 큰 지위가 주어진 것은 그들이 사용하는 언어 – 즉 이성 덕분이다. 주장에 사용된 용어 하나하나에 담긴 발화자의 감정은 중요치 않다. 과학도가 주목해야할 유일한 가치는 용어의 학문에서의 정의, (다소 밋밋한) 주장의 사실적 측면 뿐이다. 이는 주장을 받아들일 때 뿐만 아니라 주장을 할 때 역시 마찬가지다. 과학도는 상황에 적확하면서도 가치중립적인 용어를 선택해야 한다. 주장이 사회문화적 맥락에 따라 다양하게 해석될 여지를 가능한 줄여야 한다.

우리는 견해 차이에서 감정 싸움으로 번져간 학계의 사례를 얼마나 쉽게 찾을 수 있는가?2 이는 과학의 영역에서는 경계해야 마땅하다. 감정으로 공격해와도 이성의 언어로 이해하고, 이성의 언어로 반박하고, 이성의 언어로 해석이 유일한 주장을 펼쳐야 한다. 그것이 과학이고, 그것이 과학자로 불리고픈 사람이 적어도 과학의 영역에서는 반드시 지켜야 할 원칙이라 생각한다.


  1. 존재의 원천은 존재 뿐이고 당위의 원천은 당위 뿐이라는 생각에 동의하지 않는다. 당위가 당위로만 근거되는 순간 그 당위는 합의의 여지가 없어진다. 개개인마다 저마다 다른 당위를 가질테고 당위 간 충돌 또한 피할 수 없을게다. 합의점이 존재할 수 없는 당위는 충돌상황 해결을 회피한다. 충돌하는 당위의 근거 또한 개개인마다 다르게 가지고 있는 당위이므로 토론은 불가능하다. 공통된 바탕을 놓고 이야기할 수 없는 당위는 의미가 없다. 객관적인 존재가 뒷받침하는 당위에서부터만 토론과 합의, 더 나아가 의미있는 당위가 도출될 수 있다고 본다. 당위의 바탕은 존재에 있어야 한다고 생각한다. 
  2. 가장 대표적으로 ‘철학적인 문제는 존재하는가’를 두고 다투었던 이야기미적분학의 창시자는 누구인가를 두고 일어난 논쟁 등이 있을 것이다. 전자는 비록 과학계의 이야기는 아니지만 감정이 끼어들 자리는 아니었음이 자명하다. 

의식을 이식하기

 

Single particle analysis라는 기술이 있다.

f6-large

아주 간단히 이야기하자면, 한 물질을 다양한 구도에서 찍은 수많은 사진으로 고해상도 구조를 추측하는 기술이다. 심지어는 입체구조까지 꽤나 정확하게 추측할 수 있다고 한다. (αB-crystallin의 구조라고 한다)

2차원적인 표상을 쌓고 또 쌓아 한 차원 위의 정보를 캐내는 셈이다.


사람의 의식을 말할 때 마치 육신과 구별되는 개념인 것처럼 이야기하는 것을 심심치 않게 들을 수 있다. 이런 관점에서 의식과 육체는 흔히 소프트웨어-하드웨어적인 관계로 비유되곤 한다. 허나 실제 연구자들의 생각은 상이하다고 한다. 물질로 증명하고 물질로 주장하는 과학도로서, 본인 역시 육신과 의식의 구별은 불가능하다고 생각한다. ‘의식’을 뇌라 불리는 기관으로부터 비롯되는 일련의 정신, 신경활동이라 정의한다면 결국 정신 역시 물질(육체) 간 상호작용의 일환일게다. (물론 정의 자체에 대한 이견이 있을 수 있다)

슬프게도(?) 의식과 정신의 분리를 인정하지 않는 순간 의식-육체의 소프트웨어-하드웨어적 관계 또한 부정된다. ‘의식을 육체 밖 연산장치에 이식한다’는 공상과학적 상상은 물거품이 되고 만다.


행동을 의식의 표상이라 할 수 있지 않을까?

행동이 곧 의식이라고 할 수는 없겠지만 적어도 특정 마음상태의 징후(that could indicate their state of mind”)라고 할 수는 있을게다. 그렇다면 행동을 적어도 ‘의식의 표상’, ‘그림자’라고는 칭할 수 있을거라 본다.

가능한 모든 선택의 순간 똑같은 선택을 하는 사람은, 다시 말해 매 순간 똑같이 행동하는 두 사람의 의식은 유사할 것이라 짐작할 수 있지 않을까. 대응되는 모든 각도에서 동일한 표상을 보이는 존재는 본질 또한 유사하지 않을까. 적어도 표상으로 본질을 ‘봐야’하는 관찰자는 구별할 수 없을 것이다.

우리는 컴퓨터가 주어진 상황에서 사람과 유사하게 행동하도록 학습시킬 수 있음을 안다. 알다마다, 자동주행을 비롯한 분야에 적용하고 있다. 과장을 좀 보태자면 (+시간과 자원이 꽁으로 주어진다면) 모든 상황과 행동을 학습시킬수도 있을 듯 하다. 우리는 한 사람만을 타겟으로, 알려진 모든 선택의 순간에서 그 사람과 같이 행동하도록 학습된 소프트웨어를 그 사람과 다른 존재로 구별해낼 수 있을까?

말하자면 튜링 테스트의 또다른 버전이다. 튜링은 기계에게 인간으로 하여금 자신이 인간이라고 생각하도록 할 정도의 대화능력이 있다면 기계에 지능이 있다고 판단할 수 있을거라 보았다. 비슷한 논리로 사람과 그 사람을 학습한 기계의 존재를 구별하지 못한다면 컴퓨터에 의식을 이식했다고 할 수 있지 않을까. 의식이라는 소프트웨어를 컴퓨터라는 하드웨어에 다운로드하는 대신, single particle analysis과 유사한 방법으로 단면적 표상을 차곡차곡 쌓아서 말이다.


물론 행동-의식의 관계는 그림자-물체의 관계처럼 단순하지 않다. 차라리 표현형-계통수의 관계와 닮은 듯 하다. 형태가 유사하다 하여 반드시 근연관계에 있지는 않다. 표상이 유사하다 하여 본질이 유사하지는 않을 수 있다. 그러나 인간(및 여타 동물)에서 ‘의식’이라 불리는 것과 상응하는 무언가가 학습된 프로그램에도 존재한다 생각할 수는 없을까.