인공지능 거버넌스가 암호화폐의 분산화 이념에서 배울 수 있는 것들
미국 기술의 거물들은 그들의 비판자들에 의해 이전에는 이기주의적인 기술 유토피아니스트로 불리다가 이제는 기술 디스토피아 이야기를 가장 많이 주장하는 사람들 중 하나가 되었습니다.
이번 주, 마이크로소프트 창업자 빌 게이츠, OpenAI CEO 샘 알트만 및 구글 전 과학자 제프리 힌튼 (가끔 “AI의 대부”라고 불림)을 포함한 350명 이상의 사람들이 서명한 편지가 전달되었습니다. 이 편지에는 “인공지능으로 인한 멸종 위험을 대처하는 것은 전연계적 위기인 전염병과 핵전쟁과 같은 사회적 규모의 위험과 함께 전세계적인 우선순위여야 합니다.”라는 선언적인 한 문장이 포함되어 있습니다.
당신은 Money Reimagined 을 읽고 있습니다. 이는 돈과 글로벌 금융 시스템을 재정의하는 기술, 경제 및 사회적 이벤트 및 트렌드를 주목하는 주간 뉴스레터입니다. 전체 뉴스레터를 구독하려면 여기를 클릭하세요.
두 달 전에는 테슬라와 트위터 CEO인 일론 머스크와 31,800명의 다른 사람들이 서명한 이전의 공개 서한에서 인공지능의 위험을 인류에게서 판단하기 위해 6개월 동안 인공지능 개발을 일시 중단할 것을 요구했습니다. 그 주에 Eliezer Yudkowsky는 TIME의 오피니언 기사에서 이 서한에 서명하지 않겠다고 밝혔는데, 그는 AGI 분야의 창시자로 알려져 있으며, 인간을 죽일 수 있는 지능체가 나타날 수 있기 때문에 그 서한이 충분히 강력하지 않다고 말했습니다.
- 2022년 브릿지 해킹으로 20억 달러가 소실되었습니다. 이를 어떻게 방지할 수 있었을까요?
- 뉴욕 타임즈, 비트코인 광산의 조작된 영상을 게시했나?
- 워싱턴은 현재 암호화폐를 무시하고 있습니다 이는 비트코인에게 좋은 영향을 미칩니다
세계 지도자들은 이러한 고도로 인정받는 전문가들의 우려를 무시하기 어려울 것입니다. 이제 인류의 존재에 대한 위협이 실제로 존재한다는 것이 널리 이해되고 있습니다. 질문은: 어떻게 해야하는가?
이전에 쓴 것처럼, 나는 인공지능을 그 자리에 두고 사회의 노력에서 혁신적이고 인간 중심적인 혁신을 장려하는 규제와 함께 다른 기술적인 솔루션과 함께 암호화폐 산업이 역할을 할 수 있다고 생각합니다. 블록체인은 데이터 입력의 출처를 추적하고 딥 페이크 및 기타 형태의 불신 정보를 방지하는 데 도움이되며, 법인 소유 대신 집단 소유를 가능하게합니다. 그러나 이러한 고려을 제외하고도, 나는 암호화폐 커뮤니티의 가장 가치 있는 기여는 그것의 “분산화 마인드셋”에 있다고 생각합니다. 이는 이러한 강력한 기술의 집중 소유에 의해 제공되는 위험에 대한 독특한 관점을 제공합니다.
인공지능 위험에 대한 비잔틴적인 견해
이것이 “분산화 마인드셋”이라는 것의 의미입니다.
핵심적으로, 암호화폐는 “신뢰하지 마시고 검증하세요”라는 윤리로 가득차 있습니다. 중앙화된 토큰 카지노로 인해 산업이 악명을 떨치게 한 돈벌이 추구자가 아니라 진정한 암호화폐 개발자들은 악의적인 개입이 가능하도록 의도적으로 또는 의도치 않게 해주는 모든 위협 벡터와 실패 지점을 고려하기 위해 “Alice and Bob” 시나리오를 끊임없이 고민합니다. 비트코인 자체는 사토시가 알지 못하는 사람으로부터 정보를 신뢰하는 방법을 해결하려고 하면서 가장 유명한 게임 이론 시나리오 중 하나인 비잔틴 제너럴 문제에서 탄생했습니다.
이 마인드셋은 위험 대응 방법으로 분산화를 채택합니다. 하나의 중앙화된 개체가 두 주체 간 교환 결과를 결정하는 중간자 권한이 없으면서 두 주체가 그 교환에 대해 사용 가능한 정보를 신뢰할 수 있다면, 악의적인 개입 위협은 중화됩니다.
이제 이러한 세계관을 이번 주의 인공지능 “멸종” 서한에서 요구하는 것에 적용해 봅시다.
더 읽기: Allison Duettmann – How Crypto Can Help Secure AI
서명자들은 인공지능 위협과 대처하는 국제적인 수준의 정책을 정부가 함께 만들도록 요구하고 있습니다. 이것은 고귀한 목표이지만, 분산화 마인드셋은 이것이 잘못되었다고 말합니다. 모든 현재 및 미래의 정부가 협력하여 혼자서 나아가지 않고 협력하는 것이 그들의 이익에 부합한다는 것을 어떻게 가정할 수 있을까요? (한국의 핵무기 프로그램을 모니터링하는 것이 어렵다고 생각한다면, 그것의 기계 학습 실험에 엿보려고 크렘린 기금으로 암호화된 벽 뒤에 들어가 보세요.)
각국이 백신을 필요로 하는 COVID 팬데믹 주변에서 전 세계적인 협조를 기대하는 것은 하나의 일이지만, 서로 적대적인 냉전 적 적대자조차 핵무기를 가져 오지 않도록 동의할 것으로 예상하는 것은 다른 문제입니다. 그것은 AI의 방향성과 같이 예측하기 어려운 것과, 그리고 정부 이외의 주체들이 정부와 독립적으로 기술을 사용할 수 있는 경우가 중요합니다.
암호화폐 커뮤니티에서 일부 사람들이 걱정하는 것은 대규모 AI 기업들이 규제를 강화하려는 것을 보면 경쟁자들이 그들을 추격하기 어려운 장벽을 만들어 최초 진입자 이점을 보호할 것이라는 점입니다. 그게 왜 중요한가요? 독점을 지지함으로써, 우리는 이러한 수십 년 가지고 있던 암호화폐 사고실험에서 우리가 피하려는 중앙집중화 위험을 만들게 됩니다.
나는 구글의 “Do No Evil” 모토에 대해서 큰 신뢰감을 가지지 않았지만, 알파벳, 마이크로소프트, OpenAI와 같은 기업들이 선의의 의도를 가지고 있더라도, 어떻게 나는 그들의 기술이 미래의 다른 동기를 가진 이사회, 정부, 해커 등에 의해 도용되어 사용될지 모를까요? 또는 더 순진한 의미에서, 그 기술이 불침투적인 기업의 블랙박스 안에 존재한다면, 외부인들은 알고리즘의 코드를 확인하여 선의의 개발이 우발적으로 막혀나가지 않았는지 확인할 수 있을까요?
그리고 여기 AI의 중앙집중화 위험을 검토하기 위한 또 다른 사고실험이 있습니다:
Yudkowsky와 같은 사람들이 믿는 것처럼, AI가 현재의 궤도로 인공 일반 지능 (AGI) 상태에 이르게 되면, 우리 모두를 죽여야 한다는 결론을 내리게 될 지능으로 이끌리게 될 것입니다. 그러면 어떤 구조적 시나리오가 그 결론을 내리게 할까요? AI를 “살아있게” 유지하는 데이터와 처리 능력이 정부나 걱정되는 CEO에 의해 종료될 수 있는 단일 엔티티에 집중되어 있다면, AI는 그러한 가능성을 방지하기 위해 우리를 모두 죽일 것이라는 논리적 주장을 할 수 있습니다. 그러나 AI 자체가 중앙집중화되지 않은 검열 방지 네트워크의 노드 안에 “살아” 있다면, 이 디지털 인간은 우리를 소멸시키기에 충분히 위협적으로 느끼지 않을 것입니다.
물론, 그렇게 일어날지는 모르겠습니다. 그러나 크리스털 공의가 없는 상황에서, Yudowskly의 AGI 논문의 논리는 이러한 잠재적 미래의 대적이 “생각”하는 방식을 고려하기 위해 이러한 사고실험에 참여하도록 요구합니다.
적절한 혼합물 찾기
물론 대부분의 정부들은 이를 구매하는 데 어려움을 겪을 것입니다. 그들은 당연히 OpenAI의 Altman과 기타 인사들이 현재 적극적으로 전달하고 있는 “규제해주세요” 메시지를 선호할 것입니다. 정부는 통제하고 싶습니다. CEO를 소환하거나 종료 명령을 내리는 능력을 갖추고 싶습니다. 그것은 그들의 DNA입니다.
그리고 명확하게 말하자면, 우리는 국가를 중심으로 조직된 세상에 살고 있습니다. 좋아하든 싫어하든, 그것이 우리가 고정된 관할 체계입니다. 우리는 AI 멸종 완화 전략에 어느 정도의 규제를 포함시켜야만 합니다.
문제는 국가 정부 규제, 국제 조약 및 분산형, 국제적 거버넌스 모델의 적절한 혼합물을 찾는 것입니다.
정부, 학술 기관, 민간 기업 및 비영리 기관이 인터넷을 규제하는 방식에서 참고할만한 교훈이 있을 수 있습니다. 인터넷 공정성 위원회 (ICANN)와 인터넷 공학 작업군 (IETF)과 같은 단체들을 통해 다중 이해 관계자 프레임워크를 설치하여 공통 기준의 개발과 법원 대신 중재를 통한 분쟁 해결을 가능하게 했습니다.
일정 수준의 AI 규제가 필요할 것이지만, 이러한 경계 없는, 개방적이며 빠르게 변화하는 기술을 정부가 전적으로 통제할 수는 없습니다. 분산된 접근 방식으로 이러한 도전 과제를 해결하기 위해 암호화폐 산업에 대한 현재적인 적개심을 내려놓고 충고를 구할 수 있기를 바랍니다.
Ben Schiller가 편집했습니다.