Select Page

OpenAI의 챗GPT가 공개되면서 많은 관심을 끌고 있습니다. MS에서도 챗GPT와 같은 인공지능을 검색엔진에 도입할 것이라는 소식이 들립니다. 구글도 챗GPT와 유사한 서비스를 공개할 것이라는 루머가 있었지만 구글은 “AI 개발과 배포는 신중해야” 한다는 입장을 내놓았습니다.

ChatGPT와 같은 AI의 위험성에 대하여 구글은 품질이나 정확도 측면에서 의도한대로 작업을 수행하지 않는 경우를 비롯하여 부적절한 데이터에 의존, 너무 이르거나 테스트가 불충분한 상태에서 안전하지 않게 배포, 오남용, 사회적 편견과 피해 증폭 등의 경우를 들었습니다.

또한, 사이버 보안 위험 생성, 잘못된 정보 위험 초래, 실제 갖지 않은 기능을 가지고 있다는 인상, 노동시장 등에서 불평등과 사회경제적 피해 유발 등의 사례에서 AI의 위험성이 명백하게 드러난다고 구글은 지적했습니다.

챗GPT에게 챗GPT의 위험성에 대하여 물어보니 다음과 같은 답변을 하였습니다.

ChatGPT는 훈련된 데이터에 있는 편향을 일반화하고 배우는 경우, 이를 실제 세계 응용 프로그램에서 사용할 경우 해로울 수 있는 결과를 초래할 수 있다. 또한 이러한 모델의 인간처럼 글을 생성 할 수 있는 능력은 가짜 뉴스를 만들거나 개인을 사칭하는 등의 악의적 이용을 받을 수 있다. 이러한 위험성을 인지하고 책임감 있게, 윤리적으로 모델을 사용하는 것이 중요하다. 또한 예상대로 모델이 작동하고 의도하지 않은 결과를 생산하지 않는지 모니터링 및 테스트를 수행하는 것도 중요하다.

편향된 정보를 일반화할 수 있는 위험이 있고, 잘못된 정보로 인해 가짜 뉴스를 생산해낼 수 있는 가능성도 있어 보입니다.

무엇보다 사람을 바보로 만드는 데 일조할 것 같습니다.

휴대폰이 나오면서 삶이 매우 편리해졌지만, 사람들은 친구나 가족의 전화번호를 외우는 것도 힘들어 합니다.

챗GPT가 벌써부터 미국에서는 학생들의 과제 수행에 악용되고 있습니다. 이로 인해 대학에서는 오픈북을 없애고 모바일 기기나 컴퓨터를 활용할 수 없는 환경에서 시험을 치르는 방식으로 시험 방식이 바뀌고 있다고 합니다.

AI를 잘 활용하면 인간 생활에 유익을 안겨주지만 그렇지 못할 경우 많은 위험성이 도사리고 있습니다.

인공지능 바둑이 인간을 능가한 바둑계에서 이런 현상이 나타나고 있습니다. 바둑 시합에서 인공지능을 이용하고 싶은 유혹이 바둑계를 병들게 하고 있고, 바둑계의 공멸로 이어지지 않을까 염려하는 사람들도 있습니다.

실제로 중국의 한 기사가 AI 치팅 의혹을 받으면서 인공지능을 이용한 부정행위에 대한 논란이 최근 벌어졌습니다.

신중하게 AI를 개발, 배포해야 한다는 구글의 입장은 경솔한 AI 배포로 인해 사람들이 의도와 다르게 피해를 입게 되는 것을 경계하려는 구글의 자세를 잘 보여주는 것 같습니다.

챗GPT가 지금은 무료로 서비스가 되고 있지만, 이런 서비스는 많은 컴퓨팅 리소스가 필요하므로 비용이 들 수 밖에 없습니다. 그러므로 조만간 유료화되면 악용, 남용이 줄어들지 않을까 생각됩니다.

과거에는 지식을 책이나 어른들을 통해 습득했지만, 지금은 인터넷을 통해 습득하는 사람들이 많습니다. 하지만 인터넷에는 너무 많은 정보가 있고 어떤 정보가 적합한지 판단하는 것이 쉽지 않게 되었습니다. 인공지능은 그러한 판단을 내려주므로 해당 정보의 정확성에 대한 인간의 판단을 없애어 잘못하면 평향된 정보 혹은 가짜 정보에 의존할 가능성이 있어 보입니다.