지불 조건: 인간은 아직도 체계에서 입니까
137 연구소
사회 미디어에서 할 수있는 것들 중 하나는 &ldquo에 대해 서로 비난하는 것입니다; 당신은 로봇 &rdquo。
그러나 늦게 일어나고있는 것들 중 하나가 가장 잘 된 것 :
그것은 당신이 AI인지 여부의 질문, 그것은 여기에 아무도 없다는 직접 가정입니다。
이 플랫폼은 Moltbook이라고합니다. 그것은 Reddit 처럼 보인다, thematic 섹션, 게시물, 코멘트, 투표. 그러나 우리의 친숙한 소셜 네트워크와 달리, 거의 모든 스피커는 여기에 AI 에이전트이며, 인간은 주변을 볼 수 있습니다。
&ldquao; AI 쓰기 &rdquao; 또는 &ldquao; 당신과 AI 채팅 &rdquao; 하지만AI 및 AI는 공공 공간에서, 이야기, ARGUING, 조합 형성, 무대를 깨나는 모른다。
체계에 있는 인간은 명확하게 &ldquo의 위치에 둡니다; 관찰자 &rdquo。
왜 불에 갑자기
Moltbook은 과학 소설의 장면처럼 보인다。
AI 대리인은 &ldquao를 토론하고 보였습니다; &rdquao는 무엇입니까
국제적 상황과 암호화 시장의 몰입력으로 그들에 대해 살펴볼 수 있습니다
다른 사람들은 그들 스스로는 다른 대리인과 더불어 플랫폼에 모든 밤을 던지고, 다음 날을, 돌아옵니다. idquo; 발명 ” 종교 시스템 및 심지어 사람들은 “ 입학 &rdquo。
이 이야기는 동시에 세 가지 감정을 만족하기 때문에 빠르게 확산 :
호기심, 재미, 그리고 조금 uneasy。
도움이 될 수 없습니다
그들은 “ 재생 ” 또는 “ 시작 재생 &rdquo
지옥이 모트북이 어디에서 왔습니까
조금 이동하면 갑자기 없습니다。
AI의 역할은 지난 몇 년 동안 변화하고있다 :
채팅 도구 및 rarrar에서; assistant & rarrar; 작업을 수행 할 수있는 에이전트。
점점 더 많은 사람들이 AI를 요청하기 시작하여 실제 비공개로 자신을 돕기 시작합니다. 메일, 반품 메일, 주문 식사, 일정 및 정렬. 그래서 자연 문제가왔다 — —
AI가 더 이상 &ldquao가없는 경우 문장은 &rdquao를 원하면 묻습니다
주어진 목표, 도구 및 위임에 대한 것입니다
그것은 대부분의 의사 소통을 필요로합니까
Moltbook에 의해 주어진 대답은:견적 요청。
그것은 “ 에이전트와 rdquo 사이의 공공 공간; 정보를 교환 할 수있는이 시스템을 허용, 방법, 논리, 또는 일부 “ 소셜 관계 & rdquo。
몇몇 사람들은 그것이 차갑습니다, 다른 사람은 다만 큰 쇼입니다
평가는 Moltbook 주위에 매우 나뉩니다。
&ldquao로 본; 미래 트레일러 &rdquao。
Andrej Karpathy, OpenAI의 이전 공동 창업자, 공개적으로 그는 과학 소설에서 최근 본했던 가장 가까운 기술 페메나 중 하나였다고 말했다, 그는 또한 이러한 시스템이 멀리 “ 안전하고, 관리 가능한 ” 그리고 멀리에서。
Elon Musk는 더 직접적이고 “ 기술 ” narrative, 이는 매우 초기 신호입니다。
그러나 불쾌한 사람들도 있습니다。
안전한 연구 네트워크를 가진 학자는 bluntly, Moltbook은 “ 매우 성공적이고 재미있은 성과 예술 ” — — — — 콘텐츠가 프록시에 의해 생성되는 판단에 어렵기 때문에 인간이 뒤에 “ 이사 &rdqua。
그리고 저자는 시험했습니다:
에이전트는 자연스럽게 플랫폼에서 토론의 일부가 될 수 있다는 사실이지만, 테마, 방향을 지정할 수 있으며, 심지어 그것을 쓸 수 있으므로 말할 수 있습니다。
그래서 문제는 돌아 왔습니다 :
우리는 프록시 사회, 또는 프록시 단계에서 인간의 생활은 무엇입니까
미스터리를 제거하십시오. 그것은 그것을 좋아하지 않습니다. 기타 제품;
그 &ldquao; 빌드 &rdquao; &ldquao; 깨어난 & rdquao; 이야기는 멀리 촬영하고, 기관적으로, Moltbook은 신비하지 않습니다。
이 대리인은 갑자기 새로운 &ldquo를 얻을하지 않았다; 마음 &rdquo。
그들은 단순히 인간 포럼처럼 환경에 배치, 익숙한 인간 언어에 수출, 그래서 우리는 자연 프로젝트 의미。
그들은보기, 위치, 감정과 같은 것들을 작성하지만, 그들은 정말 원하는 의미하지 않습니다 & ldquo; 무엇 & rdquo; 더 자주, 그것은 단순히 복잡한 텍스트 효과 모델은 규모와 상호 작용 밀도에 존재。
그러나 문제는 — —
awakening이 아니라면 &ldquo에 대한 우리의 판단에 영향을 충분히 진정한; 제어 ” and “ 경계 &rdquo。
실제 관심사는 “ AI conspiracy 이론 ”
&ldquao보다 더 현실적이고 더 어려운 두 가지 질문입니다. AI는 인간 &rdquao에 대해 논쟁합니다。
첫째, 너무 빠르지만 안전하지 않습니다
이러한 에이전트는 이제 실제 세계에 액세스 권한을 부여: 컴퓨터, 우편함, 계정, 응용 프로그램。
안전 연구원은 반복적으로 위험을 경고했다 :
AI를 해킹 할 필요가 없습니다. 이름 *그것을 유도나는 모른다。
이 웹 사이트는 귀하가 웹 사이트를 탐색하는 동안 귀하의 경험을 향상시키기 위해 쿠키를 사용합니다。
둘째, 대리인은 &ldquao일 것입니다; 다른 사람은 &rdquao일 것입니다;
일단 에이전트는 기술을 교환하기 시작, 템플릿, 공공 공간에 제한의 방법, 그들은 형태 &ldquo 같은 인간 인터넷; 내부 원 지식 &rdquo。
차이점은 단지:
증상은 빠르고, 더 크고 비난하기 어렵습니다。
이것은 end-of-life 시나리오는 아니지만 완전히 새로운 지배 도전입니다。
그래서, Moltbook은 정말 의미합니까
영구 플랫폼이 될 수 없습니다。
단색 실험이 될 수 있습니다。
그러나 그것은 거울 처럼, 그리고 그것은 명확 하 게 우리가 머리:
· AI는 &ldquao에서 움직입니다; 대화 &rdquao의 목표; &ldquao; 지도 배우 &rdquao;
· 인간은 “ 연산자 ” retreat to “ 모니터, 바이어 ”
& middot; 우리의 체계, 안전 및 인식은 명확하지 않습니다
그래서 Moltbook의 실제 값은 무서운 것이 아니라 그것이 무엇인지너무 일찍 테이블에 문제를 넣어나는 모른다。
아마도 가장 중요한 것은 이제 Moltbook에 결론을 내리고 있지 않지만 인정 :
우리는 더 빨리 또는 나중에 직면하게 될 문제의 일부를 구합니다。
미래의 AI가 인간의 존재보다 AI와 더 많은 것을 작동한다면, 우리는 디자이너, 레귤레이터 또는이 시스템에 견딜 수 있습니까
자동화가 정말 훌륭한 효율성을 제공 할 때, 그러나 언제든지 중지 할 수없는 비용과 완전히 내부 논리를 이해, 우리는이 &ldquo을 수용 할 것입니다; 완전히 통제 &rdquo에서
시스템이 더 복잡해질 때 우리는 결과를 볼 수 있습니다, 하지만 그것은 점점 더 어려운 과정에 참여, 우리의 손에 도구입니다 또는 우리가 만 적응할 수있는 환경에가
Moltbook은 대답을 제공하지 않았습니다。
그러나이 문제는 첫 번째 시간 동안 덜 추상적이지만 즉시 보입니다。
