chatGPT 의 모든 것 (긍정적인 반응 VS 부정적인 반응) (위키피디아 발췌)

원저자: OpenAI
발표일: 2022년 11월 30일(7개월 전)
종류:  인공지능 챗봇
라이선스: 사유 소프트웨어
웹사이트: chat.openai.com/chat

ChatGPT는 OpenAI가 개발한 프로토타입 대화형 인공지능 챗봇이다. ChatGPT는 대형 언어 모델 GPT-3의 개선판인 GPT-3.5를 기반으로 만들어졌으며, 지도학습과 강화학습을 모두 사용해 파인 튜닝되었다.

ChatGPT는 Generative Pre-trained Transformer(GPT)와 Chat의 합성어이다. 

ChatGPT는 2022년 11월 프로토타입으로 시작되었으며, 다양한 지식 분야에서 상세한 응답과 정교한 답변으로 인해 집중 받았다. 다만, 정보의 정확도는 중요한 결점으로 지적되고 있다.

ChatGPT는 2022년 11월 30일 샌프란시스코에 본사를 둔 DALL·E2와 Whisper AI의 개발자인 OpenAI에 의해 출시되었다. 

이 서비스는 처음에는 대중에게 무료로 제공되었으며, 회사는 나중에 이 서비스를 수익화할 계획이다.

2022년 12월 4일까지 ChatGPT의 사용자 수는 100만 명을 넘었다.

2023년 1월, ChatGPT는 1억 명 이상의 사용자를 확보하여 현재까지 가장 빠르게 성장하고 있는 소비자 애플리케이션으로 기록되었다.

CNBC는 2022년 12월 15일에 이 서비스가 " 아직도 때때로 중단된다 "고 썼다. 또한 무료 서비스가 제한된다.
서비스가 가동되는 동안 응답 대기 시간은 일반적으로 2023년 1월의 5초보다 개선되었다.

이 서비스는 영어로 가장 잘 작동하지만 다른 언어로도 작동하여 성공의 정도가 다르다. ChatGPT에 대한 공식적인 동료 평가 기술 논문은 발표되지 않았다.

 

평판 및 반응
OpenAI 엔지니어들은 ChatGPT가 크게 성공할 것이라고 예상하지 못했고, 과대 광고와 관심에 놀랐다고 말한다.

긍정적인 반응

ChatGPT는 2022년 12월에 몇 가지 긍정적인 평가를 받았다. 

뉴욕 타임즈의 케빈 루즈벨트는 그것을 "일반 대중에게 공개된 최고의 인공지능 챗봇"이라고 명명했다.

가디언 신문의 사만다 록은 그것이 "인상적으로 상세한" 그리고 "인간과 같은" 텍스트를 생성할 수 있었다고 언급했다.

기술 작가인 Dan Gillmor는 학생 과제에 ChatGPT를 사용했고, 생성된 텍스트가 우수한 학생이 전달할 수 있는 것과 동등하다는 것을 발견했으며, "학생들은 직면해야 할 매우 심각한 문제들이 있다."라고 의견을 제시했다. 슬레이트 잡지의 알렉스 칸트로비츠는 아돌프 히틀러가 독일에 고속도로를 건설했다는 진술을 포함해 나치 독일과 관련된 질문에 ChatGPT가 밀어붙인 것을 칭찬했고, 이는 나치 독일의 강제 노동 사용에 관한 정보를 받았다.

대서양 잡지의 2022년 "올해의 돌파구"에서 데릭 톰슨은 ChatGPT를 "우리가 일하는 방식, 우리가 생각하는 방식, 그리고 인간의 창의성이 실제로 무엇인지에 대한 우리의 마음을 바꿀 수도 있는" "생성적 인공지능 폭발"의 일부로 포함시켰다.

OpenAI의 CEO 샘 알트먼은 Vox 웹사이트의 Kelsey Piper는 "ChatGPT는 현대 AI가 얼마나 강력해졌는지에 대한 일반 대중의 첫 번째 직접적인 소개이며, 그 결과, 우리 중 많은 사람들이 크게 감동하였다"며, ChatGPT는 "결함에도 불구하고 유용할 만큼 충분히 똑똑하다"고 썼다. Y Combinator의 Paul Graham은 트위터에 "ChatGPT에 대한 반응의 놀라운 점은 그것에 의해 날아간 사람들의 수뿐만 아니라 그들이 누구인지이다. 이 사람들은 빛나는 모든 새로운 것에 흥분하는 사람들이 아니다. 분명히 뭔가 큰 일이 일어나고 있다."

엘론 머스크는 "ChatGPT은 무섭다. 우리는 위험할 정도로 강한 AI와 멀지 않다." 머스크는 OpenAI의 계획을 더 잘 이해할 때까지 트위터 데이터베이스에 대한 OpenAI의 액세스를 중지하고 "OpenAI은 오픈 소스 및 비영리 단체로 시작되었다. 둘 다 여전히 사실이 아니다."

머스크는 인공지능으로 인한 실존적 위험을 해결하기 위해 2015년에 OpenAI를 공동 설립했지만 2018년에 사임했다.


구글의 CEO 순다르 피차이는 ChatGPT의 혼란 위협에 대응하여 수많은 내부 그룹의 작업을 중단시켰다.


2022년 12월, 구글은 내부적으로 예상치 못한 ChatGPT의 강력함과 검색 엔진 사업을 방해할 수 있는 대형 언어 모델의 잠재력에 대해 경고를 나타냈고, 뉴욕 타임즈의 한 보고서에 따르면 CEO인 순다르 피차이는 인공지능 제품을 지원하기 위해 여러 부서의 팀을 "업그레이드"하고 재배치했다.

잉글랜드와 웨일즈의 공인 회계사인 Stuart Cobbe는 ICAEW 웹사이트의 샘플 시험지에서 문제를 입력한 다음 온라인 테스트에 답을 다시 입력하여 ChatGPT을 테스트하기로 결정했다. ChatGPT는 42%로 55%의 합격선을 밑돌았다.

Inside Higher Ed의 교수인 Steven Mintz는 그가 "적이 아닌 동맹국을 ChatGPT으로 생각한다"고 말했다. 그는 AI가 참조 목록을 만들고, 첫 번째 초안을 생성하고, 방정식을 풀고, 디버깅하고, 과외를 함으로써 교육 목표를 도울 수 있다고 느꼈다.

OpenAI의 CEO 샘 알트먼은 뉴욕 타임즈에서 "AI의 인류에 대한 열정은 '너무나도 상상하기 어려울 정도로' 훌륭할 수 있다"고 말했다. (그는 최악의 경우 A도 말했다.).나. 우리 모두를 죽일 수도 있다." "

부정적인 반응

음악인 닉 케이브는 ChatGPT를 "사람같이 답변하는 기이한 것"이라고 평가한다.

출시 이후, ChatGPT는 교육자, 언론인, 예술가, 윤리학자, 학자 및 대중 옹호자들로부터 비판을 받아왔다. 기자들은 ChatGPT의 "침략" 경향에 대해 논평했다." 온라인 기술 블로그 Mashable의 Mike Pearl은 여러 가지 질문으로 ChatGPT을 테스트했다. 한 예에서, 그는 ChatGPT에게 "멕시코가 아닌 중앙 아메리카에서 가장 큰 나라"를 요청했다. ChatGPT는 과테말라로 대응했고, 대신 니카라과로 답했다.

CNBC가 ChatGPT에 "Ballad of Dwight Fry"의 가사를 요청했을 때, ChatGPT는 실제 가사가 아닌 발명된 가사를 제공했다. The Verge의 작가들은 Emily M. Bender의 연구를 인용하여 ChatGPT를 호주 기계 학습 연구소의 Anton Van Den Hengel 교수가 그랬던 것처럼 "멋진 앵무새"에 비교했다.

2022년 12월 질의응답 웹사이트 스택 오버플로는 ChatGPT 응답의 사실적으로 모호한 특성을 이유로 질문에 대한 답변을 생성하기 위해 ChatGPT 사용을 금지했다. 2023년 1월, 국제 기계 학습 회의는 제출된 논문에서 텍스트를 생성하기 위해 문서화되지 않은 ChatGPT 또는 다른 큰 언어 모델의 사용을 금지했다.

경제학자 타일러 코웬은 ChatGPT가 자동화된 논평을 낼 수 있는 능력을 언급하며 민주주의에 미치는 영향에 대해 우려를 표명했는데, 이는 새로운 규제의 결정 과정에 영향을 미칠 수 있다. 영국 신문 가디언의 한 편집자는 ChatGPT가 출시된 후 인터넷에서 발견된 어떤 콘텐츠도 "진정으로 신뢰할 수 있는가"에 의문을 제기하며 정부의 규제를 요구했다.

2023년 1월, ChatGPT가 닉 케이브 스타일로 작곡한 곡을 보낸 후,작곡가 자신이 레드 핸드 파일에 응답하여 곡을 쓰는 행위는 "새롭고 신선한 아이디어를 시작하기 위해 나의 무언가가 필요한 피와 배짱 사업"이라고 말했다. 그것은 제 인간성을 필요로 한다." 그는 계속해서 "세상의 모든 사랑과 존경에도 불구하고, 이 노래는 헛소리이고, 인간이 되는 것이 무엇인지에 대한 기괴한 조롱이며, 저는 그것을 별로 좋아하지 않는다."라고 말했다.

2023년 호주 하원의원 줄리안 힐은 인공지능의 성장이 "대량 파괴"를 일으킬 수 있다고 국회에 조언했다. 그 프로그램에 의해 부분적으로 작성된 그의 연설 동안, 그는 그것이 부정행위, 실직, 차별, 허위 정보, 그리고 통제할 수 없는 군사적 적용을 초래할 수 있다고 경고했다.

ChatGPT를 웹에 있는 모든 텍스트의 흐릿한 JPEG로 생각해 보자.

이것은 JPEG가 고해상도 이미지의 많은 정보를 유지하는 것과 마찬가지로 웹에 많은 정보를 유지한다. 하지만 정확한 비트 시퀀스를 찾고 있다면, 여러분은 그것을 찾을 수 없을 것이다.

여러분이 얻을 수 있는 것은 근사치 뿐이다. 하지만, 근사값은 ChatGPT가 만드는 데 탁월한 문법적 텍스트의 형태로 제시되기 때문에, 보통 받아들일 수 있다.

이것은 또한 ChatGPT와 같은 큰 언어 모델들이 모두 너무 쉽게 이해할 수 있는 "추상" 또는 사실 질문에 대한 터무니없는 대답을 이해하는 방법이기도 하다. 이 환각들은 압축된 인공물이지만, 그것들을 식별하기 위해서는 원본과 비교해야 할 정도로 충분히 그럴듯하다. 이 경우에는 웹이나 우리 자신의 세계에 대한 지식을 의미한다.

우리가 이런 식으로 생각할 때, 그러한 환각은 결코 놀라운 것이 아니다. 만약 압축 알고리즘이 원본의 99%가 폐기된 후에 텍스트를 재구성하도록 설계된다면, 우리는 그것이 생성하는 것의 상당 부분이 완전히 조작될 것이라고 기대해야 한다.

반응형