계산할 수 있는 세계를 꿈꾼 사람, 라이프니츠
- AI 시대를 향한 Calculemus 정신
AI 기술의 미래를 논하기에 앞서, 우리는 "계산할 수 있음"이라는 개념을 철학적으로 처음 천명한 인물을 살펴볼 필요가 있다.
17세기 철학자이자 수학자인 가오트프리트 라이프니츠(Gottfried W. Leibniz)는 인간의 사유를 논리적 기호와 계산으로 표현하려는 대담한 구상을 세웠다.
그의 유명한 라틴어 모토 "Calculemus!"(칼쿨레무스), 즉 "계산해봅시다"는 철학적 논쟁조차 정확한 계산을 통해 해결할 수 있다는 신념을 담고 있다.
라이프니츠는 "논쟁이 생기면 계산해봅시다라고 말하고, 누가 옳은지 확인하자"고 제안했으며, 이는 논리의 기계화를 꿈꾼 그의 낙관을 잘 보여준다.
계산, 사유를 공식화하는 꿈
라이프니츠에게 '계산'은 단순한 수학 연산을 넘어, 논리적 사고를 공식화하는 것을 의미했다.
그는 "인간 사상의 알파벳"을 만들고, 이를 조합하는 논리 규칙의 목록, 그리고 기호를 조작하는 기계적 절차를 구축하고자 했다.
이런 방식으로 인간이 다루는 개념들을 수학적 기호처럼 다루어, 사고의 조합과 추론 과정을 계산으로 처리하려 했다.
라이프니츠는 보편 개념어(Characteristica Universalis)와 논리 계산법(Calculus Ratiocinator)을 구상해, 모든 지식을 수식과 기호로 표현하고, 추론을 연산으로 자동화하려 했다.
이러한 시도는 훗날 형식 논리학과 컴퓨터 과학의 기초가 되었다.
버트런드 러셀은 라이프니츠를 두고 "아리스토텔레스 이후 전례 없는 방식으로 형식 논리를 발전시켰다"고 평가하기도 했다.
인식론과 논리학을 통한 계산 정신
인식론적으로, 라이프니츠는 모든 진리를 이성적 계산과 추론을 통해 판별할 수 있다고 보았다.
그는 충분한 이유의 원리 같은 보편 원리를 바탕으로, 복잡한 철학 문제도 공리와 정의만 주어지면 계산으로 해결할 수 있다고 믿었다.
자연법이나 도덕 판단조차 수학적으로 다룰 수 있다고 생각하며, 자연법의 원리를 수리적 형태로 정식화하려는 시도도 했다.
논리학적으로, 라이프니츠는 형식 논증을 산술 계산처럼 다루려 했다.
불 대수나 명제 논리의 아이디어를 선취하여, 논리식을 통해 해답을 산출하는 방법을 모색했다.
모든 개념을 이진수로 부호화하고, 추론 규칙을 연산자로 만들어 생각을 자동화하려는 비전은 훗날 수리논리학과 컴퓨터 알고리즘의 기반이 되었다.
물론 당시에도 조너선 스위프트 같은 인물은 걸리버 여행기에서 라이프니츠의 사고 계산기를 풍자하기도 했다.
하지만 라이프니츠의 Calculemus 정신은 과학적 합리주의의 정수로 남아 이후 논리학, 수학, 컴퓨터 과학 발전에 깊은 영향을 끼쳤다.
현대 AI 문제 해결을 위한 Calculemus의 적용
AI 윤리, 투명성, 통제, 평가, 저작권 같은 현대 AI 이슈들은 서로 다른 문제처럼 보이지만, 그 근저에는 "명확한 기준으로 환원하여 합리적으로 판단해야 한다"는 공통된 요구가 있다.
이는 라이프니츠가 강조했던 계산 가능한 접근과 맞닿아 있으며, AI 시대에도 여전히 중요한 열쇠가 된다.
아래에서는 이 정신이 현대 AI 문제에 어떻게 적용될 수 있는지를 살펴본다.
윤리적 판단의 계산 가능화
AI가 윤리적 결정을 내리게 하려면, 윤리 원칙을 계산 가능한 형태로 표현해야 한다.
이는 도덕을 수학적으로 공식화하는 작업과 비슷하다.
예를 들어, "인간에게 해를 끼치는 행동은 어떤 경우에도 선택하지 않는다"는 규칙을 논리 규칙이나 제약 조건으로 명시해두는 방식이다.
이는 AI에게 기본적인 도덕 가드레일을 심어주는 일이며, 윤리적 일관성을 유지하는 데 중요한 역할을 한다.
AI 의사결정의 투명성 제고
AI의 블랙박스 문제를 완화하기 위해, AI의 추론 과정을 논리적 계산 형태로 표현하고 추적할 필요가 있다.
입력에서 출력까지 거친 사고 경로를 논리 단계로 기록하면, 사람이 그 과정을 검증할 수 있다.
최근 연구에서는 대형 언어모델에게 중간 추론 과정을 자연어로 출력하게 하여, 사람이 reasoning 단계를 검토할 수 있게 하는 방법도 시도되고 있다.
또한 모델 체크 등의 형식 기법을 이용해 AI 시스템이 논리 명세를 만족하는지 수학적으로 검증하는 방법도 있다.
AI 자기개선과 행동 제어
AI가 스스로 개선하거나 변형될 때, 사전에 정의된 논리 규칙을 위반하지 않는지 검사하는 장치가 필요하다.
예를 들어, AI가 스스로 코드 수정안을 제시할 경우, 별도의 검증 모듈이 안전성을 형식적으로 검사한 뒤에만 적용을 허용하는 방식이다.
AI 내부에 규칙을 감시하는 작은 시스템을 두고, AI 행동이 정해진 논리적 울타리 안에서만 이루어지게 만드는 접근이 요구된다.
'에세이' 카테고리의 다른 글
AI가 생각을 숨기기 시작했다면? — Obfuscated Reward Hacking의 모든 것 (0) | 2025.04.01 |
---|---|
사랑 - AI에게 사랑을 심는다는 것 (기계는 사랑을 알 수 있을까?) (1) | 2025.03.05 |
심볼 - 인간과 AI의 소통 (결국 둘은 서로 다른 것을 볼 수밖에 없다.) (0) | 2025.03.02 |
집단 - AI Society (뇌, 인간, AI 사회에 대해서 ) (0) | 2025.03.02 |
인공지능과 수학 (feat. 예술) (0) | 2024.04.25 |