기술

인공 지능은 인간보다 부의 분배에서 더 나은 성능을 보입니다.

Nvidia는 사람 대신 디지털 아바타를 사용할 계획입니다.

SeaGraph 행사에서 Nvidia는 Metaverse에 대해 구상하는 미래를 제시했습니다. 예상대로 Nvidia는 컨퍼런스에서 비주얼에 많은 신경을 썼고, 무대 위 사람들의 말 속에 Read more

멸종 된 병원체는 고대 문명을 파괴의 심연으로 가져 왔습니다.

수천 년 전 동부 지중해에서 여러 청동기 시대 문명이 거의 동시에 쇠퇴했습니다. 고대 이집트의 고대 왕국과 아카드 제국이 모두 무너지고 Read more

새로운 연구에 따르면 인공 지능(AI)이 발명한 부의 분배 방법은 인간이 설계한 시스템보다 더 인기가 있습니다. 영국에 기반을 둔 인공 지능 회사인 DeepMind의 연구원 팀이 수행한 이러한 발견은 기계 학습 시스템이 복잡한 물리적 및 생물학적 문제를 해결하는 데 잘 수행할 뿐만 아니라 더 개방적이고 더 나은 최적의 결과를 달성할 수 있음을 보여줍니다. 사회적 목표. 더 많은 규제도 도움이됩니다. 정의롭고 번영하는 사회를 갖는 것과 같은 목표.

관련 기사:

물론 위의 작업은 전혀 쉽지 않습니다. 유용하고 진정으로 인간과 같은 결과를 제공할 수 있는 기계를 만드는 것은 어렵습니다. 인공 지능 연구에서는 이러한 유사성과 의지를 “가치 정렬”이라고 합니다.

모든 것, 특히 사회적, 경제적, 정치적 문제를 해결하는 가장 좋은 방법에 대해 서로 다른 사람들이 종종 동의하지 않는다는 것을 기억할 때 상황의 복잡성을 이해하게 될 것입니다. 에 의해 주도된 새로운 기사의 연구원 그룹 라파엘 코스터DeepMind의 연구 부서의 첫 번째 저자이자 과학자는 다음과 같이 설명합니다.

가치 조정의 주요 장애물은 인간 사회가 다양한 관점을 수용한다는 것입니다. 그리고 이것은 인공 지능이 따라야 할 그룹의 우선 순위를 선택하는 데 혼란을 야기합니다.

예를 들어, 정치 과학자와 경제학자는 우리 사회가 보다 정당하고 효율적으로 작동하도록 만드는 메커니즘에 대해 종종 의견이 일치하지 않습니다.

거버넌스 격차를 해소하기 위해 연구자들은 부의 분배 요인을 개발했습니다. 이 에이전트는 인공 지능을 위한 훈련 데이터에 인간 상호 작용(실제 및 가상 모두)을 포함했습니다. 간단히 말해서 이 연구에 참여한 에이전트는 AI를 인간이 선호하는(일반적으로 더 공정한) 결과로 밀어붙였습니다.

우리 모두는 인공 지능이 때때로 다른 분야에서 정말 놀라운 결과를 달성할 수 있다는 것을 알고 있습니다. 그러나 한편으로 인공지능이 스스로의 장치에 맡길 때 인간이 바라는 것과는 거리가 먼 사회적 결과를 얻을 수도 있을 것이다. 이러한 경우 인간의 피드백은 신경망을 더 나은 방향으로 안내하는 데 도움이 될 수 있습니다. 연구자들은 다음과 같이 씁니다.

인공 지능 연구에서는 인간과 호환되는 시스템을 구축하기 위해 새로운 연구 방법이 필요하다는 인식이 커지고 있습니다. 인간과 관련된 요소가 상호 작용하는 방법. 또한 인간의 가치에 부합하는 인공지능을 구축하기 위해 인간에게서 직접 가치를 배우려는 노력이 더해지고 있다.

수천 명의 인간 참가자가 참여하는 테스트에서 연구팀이 제안한 AI 에이전트인 민주 AI(Democratic AI) 공공재 게임 검사했다. 이 게임에서 플레이어는 다른 금액의 돈을 받고 돈을 공적 기금에 예치한 다음 투자 수준에 따라 기금에서 수익을 받을 수 있습니다.

다양한 게임 스타일에서 부는 세 가지 패러다임을 통해 플레이어에게 분배되었습니다.

  • 엄격하고 확실한 평등주의
  • 자유주의자
  • 자유주의적 평등주의자

네 번째 방법은 인간 중심 재분배 메커니즘(HCRM) 테스트되었습니다. 이 방법은 인간 행동을 모방하도록 설계된 인간 플레이어 및 가상 에이전트의 피드백 데이터를 사용하여 심층 강화 학습을 사용하여 개발되었습니다.

후속 테스트에서는 돈을 환불하거나 투자 수익을 받는 HCRM 시스템이 전통적인 재분배 표준보다 플레이어들 사이에서 더 인기가 있었고 또한 인간 심판이 설계한 새로운 재분배 시스템보다 더 대중적임을 보여주었습니다. 두 번째 것은 실제로 인간 심판에 의해 설계되었으며 그들을 위한 인센티브는 플레이어로부터 받은 각 투표에 대해 적은 양의 보상을 받는 것이었습니다.

연구진의 설명에 따르면 이러한 연구에서 인공 지능은 초기 부의 불균형을 수정하고 지불을 거부하는 사람들을 제재하는 메커니즘을 발견하여 마침내 과반수 득표에 성공했습니다. 연구자들은 다음과 같이 씁니다.

우리는 더 넓은 인간 공동체에서 대표자를 선출하고, 공공 정책 결정을 내리거나, 법적 판단을 내리는 데 사용되는 것과 동일한 민주적 도구를 사용하여 합의를 달성할 수 있음을 보여줍니다.

연구원들은 그들의 시스템이 여러 가지 질문을 제기한다는 것을 인정합니다. 질문은 주로 제안된 AI의 가치 정렬이 민주적 결정을 중심으로 진행되는지 여부를 중심으로 이루어지며, 이는 에이전트가 실제로 사회의 불평등이나 편견을 악화시킬 수 있음을 의미합니다. 그들이 충분히 인기 있고 대다수의 사람들이 그것에 투표하는 한.

관련 기사:

여기서도 신뢰의 문제가 논의됩니다. 실험 중 참가자들은 자신이 지불하는 부의 재분배 모델 이면의 정체를 알지 못했습니다. 특정한 재정적 결정이 인간이 아닌 인공 지능에 의해 이루어진다는 것을 안다면, 그들은 여전히 ​​제안된 것과 같은 분배 방식을 선호할까요? 이 질문에 대한 답은 아직 명확하지 않습니다.

마지막으로, 연구팀은 그들의 연구가 사회에서 부의 재분배에 관한 현재 확립된 질서를 해체하기 위한 급진적인 기술 관료적 제안으로 여겨져서는 안 된다고 믿습니다. 오히려 이 연구는 인간이 현재 가지고 있는 것보다 잠재적으로 더 나은 솔루션을 설계하고 설계하는 데 도움이 될 수 있는 연구 도구일 뿐입니다. 연구원들은 다음과 같이 씁니다.

우리의 결과는 자율 에이전트가 인간의 개입 없이 정치적 결정을 내리는 “인공 지능 정부”의 형태를 지원하기 위한 것이 아닙니다. 우리는 민주적 AI를 공공 영역에서 AI를 배포하는 방법이 아니라 잠재적으로 유용한 메커니즘을 설계하기 위한 연구 방법으로 봅니다.

이러한 발견은 자연 인간 행동 출판되었습니다.

Related Articles

답글 남기기

이메일 주소는 공개되지 않습니다.

Back to top button