그것은 (아닙니다) 살아있다! Google의

그것은 (아닙니다) 살아있다! Google의 내부 행이 AI 문제를 노출하는 방법

구글은 지난주 회사의 AI 시스템 LaMDA가 “지각”을 보인다고 주장한 엔지니어 한 명을 정직시켰다.

그것은

에볼루션카지노 샌프란시스코: Google이 인간과 같은 의식으로 기술을 구축했는지에 대한 내부 싸움이 공개되어 너무 현실처럼 느껴질 수 있는 인공 지능에 내재된 야망과 위험이 노출되었습니다.
실리콘 밸리의 거물은 지난주 회사의 AI 시스템 LaMDA가 “지각력이 있는” 것처럼 보인다고 주장한 엔지니어 중 한 명을 정직하지 못하게 했지만, 구글은 공식적으로 이 주장에 동의하지 않습니다.

몇몇 전문가들은 AFP에 자신들도 의식 주장에 대해 매우 회의적이지만 인간의 본성과 야망이 문제를 쉽게 혼동할 수 있다고 말했습니다.

워싱턴 대학의 언어학 교수인 Emily M. Bender는 “문제는 우리가 사용하는 언어에 속하는 일련의 단어를 만나면 그 단어를 이해하게 된다는 것입니다.”라고 말했습니다.

우리는 거기에 없는 마음을 상상하는 작업을 하고 있다”고 덧붙였다.

LaMDA는 고급 모델을 사용하고 1조 5천억 개 이상의 단어에 대한 교육을 사용하여 사람들이 서면 채팅에서 의사 소통하는 방식을 모방할 수 있는 매우 강력한 시스템입니다.

Google의 설명에 따르면 이 시스템은 단어가 서로 어떻게 관련되어 있는지 관찰한 다음 문장이나 단락에서 다음에 올 단어가 무엇이라고 생각하는지 예측하는 모델을 기반으로 구축되었습니다.

Chapel Hill에 있는 University of North Carolina의 컴퓨터 과학 조교수인 Shashank Srivastava는 “여전히 패턴 매칭이 어느 정도 수준에 있습니다.”라고 말했습니다.

“물론 의미 있는 대화처럼 보이는 몇 가지 가닥을 찾을 수 있고, 생성할 수 있는 매우 창의적인 텍스트를 찾을 수 있습니다. 그러나 많은 경우에 빠르게 전환됩니다.”라고 그는 덧붙였습니다.

그것은

그래도 의식을 할당하는 것은 까다롭습니다.

그것은 종종 Turing 테스트와 같은 벤치마크와 관련되어 있습니다. 사람이 기계와 서면 채팅을 했지만 말할 수 없는 경우 통과한 것으로 간주되는 테스트입니다.

마크 킹웰(Mark Kingwell) 토론토 대학 철학 교수는 “실제로 2022년 우리 빈티지의 모든 AI가 통과할 수 있는 상당히 쉬운 테스트”라고 말했습니다.

그는 “더 어려운 테스트는 상식적인 지식이나 배경 지식으로 인해 현재 시스템이 걸려 넘어지는 것처럼 보이는 상황별 테스트”라고 덧붙였다.

‘쉬운 대답은 없다’

AI는 기술 세계 안팎에서 여전히 민감한 주제로 남아 있으며 놀라움을 주기도 하지만 약간의 불편함을 주기도 합니다.

성명에서 구글은 LaMDA가 자기 인식을 하는지 여부를 경시하는 데 신속하고 단호했다.

회사는 “이 시스템은 수백만 문장에서 발견되는 교환 유형을 모방하고 모든 환상적인 주제를 따라할 수 있습니다.”라고 말했습니다.

에볼루션카지노 추천 “수백 명의 연구원과 엔지니어가 LaMDA와 대화를 나눴지만 우리는 다른 사람이… 광범위한 주장을 하거나 LaMDA를 의인화하는 것을 알지 못합니다.”라고 덧붙였습니다.

적어도 일부 전문가들은 Google의 대응을 중요한 주제에 대한 대화를 차단하려는 노력으로 여겼습니다.

학자인 수잔 슈나이더는 “이 문제가 얼마나 성가신 일인지에 대한 대중의 이해가 중요하기 때문에 이 문제에 대한 공개 토론이 매우 중요하다고 생각합니다.”라고 말했습니다.More news

플로리다 애틀랜틱 대학의 미래 정신 센터 설립 이사는 “기계의 의식 문제에 대한 쉬운 답은 없다”고 덧붙였다.