들어가는 말
2022년 11월 대중에게 최초로 공개된 챗GPT는 생성형 인공지능(artificial intelligence, AI)의 대명사로 다양한 분야의 프로페셔널들이 일하는 방법에 벌써 많은 변화를 가져왔으며, 앞으로도 더 많은 혁신적인 변화를 가져올 것으로 예상되고 있다. 이에 따라 프로페셔널한 환경에서 생성형 AI를 활용하는 방법에 대해 요즘 많은 콘텐츠들이 만들어지고 있으며, 다양한 분야에서 생성형 AI 활용법에 대한 노하우가 형성될수록 앞으로 더 많은 활용법들이 공유될 수 있을 것으로 보인다.
생성형 AI는 간단한 영문 이메일이나 이력서 작성으로부터 복잡한 보고서 작성에 이르기까지 무궁무진하게 활용될 수 있으나 현재 생성형 AI가 가지고 있는 한계에 의해 그 활용성이 제한될 수 있다. 예를 들어, 현재 생성형 AI의 문제점으로 제기되는 일관성과 정확성의 부족 등으로 인해 정확도와 일관성을 요구하는 업무에 생성형 AI를 활용하는 것이 어려울 수 있다.
현재의 생성형 AI가 가진 한계
현재의 생성형 AI는 인간이 글을 쓰는 방식을 모방하도록 설계되어 있으며, 인간의 깊이 있는 논리적 사고와 추론을 대체하는 데에는 부족함이 있다. 또한 대규모 데이터셋을 트레이닝에 사용하기 때문에 편향성이나 정보의 정확성 부족 등과 같은 문제에 취약하다. 이러한 생성형 AI의 여러 한계 중에서도 생성형 AI를 실용적으로 활용하는데 가장 큰 장애물로 체감되는 것은 아마도 일관성과 정확성의 부족일 것이다.
일관성의 부족과 비결정성
생성형 AI의 일관성 부족은 생성형 AI를 업무에 사용함에 있어서 가장 문제가 될 수 있는 것 중 하나이다. 챗GPT 등의 생성형 AI는 정확히 동일한 질문에 대해서도 동일한 응답을 출력하지 않는다. 이는 생성형 AI가 가진 비결정성(non-determinism)에 기인한다. 비결정성은 동일한 입력에 대해서도 다양한 조건 하에 다른 출력값을 생성하는 것을 의미한다. 이 비결정성이라는 특성 때문에 생성형 AI는 유연하고 창의적인 솔루션을 제공하거나, 불확실하고 복잡한 환경 속에서 다양한 가능성을 고려한 결과를 제공하거나, 개인화된 경험을 제공할 수 있다.
그러나, 생성형 AI를 사용해 업무 프로세스를 단순화하고 자동화하려고 하는 경우 일관성의 부족은 치명적인 단점으로 작용할 수 있다. 일관성 부족이 생성형 AI의 활용에 초래할 수 있는 어려움에는 품질 관리의 어려움, 업무 효율성 감소, 교육 및 훈련의 어려움 등이 있다. 즉, 동일한 입력에 대한 응답이 계속 달라지기 때문에 결과의 품질과 신뢰성을 일정하게 유지하기가 어려우며, 이 때문에 품질을 검토하고 결과물을 수정하는 작업이 추가적으로 필요하게 되어 업무의 효율성이 감소한다. 생성형 AI의 활용법에 대한 교육과 훈련 또한 이와 같은 비일관성을 감안하여 이루어져야 하기 때문에 더욱 복잡해진다. 이와 같이 일관성의 부족은 자동화 과정에서 AI 도입의 효과를 크게 약화시킬 수 있다.
정확성의 부족과 할루시네이션(hallucination)
업무환경에서 생성형 AI를 활용하는 데 있어 정확성의 부족은 일관성의 부족 못지않은 큰 걸림돌로 작용한다. 현재의 생성형 AI는 부정확한 정보를 마치 사실인 것처럼 제공하는 경우가 있으며, 이러한 현상을 AI의 할루시네이션(hallucination)이라고 부른다. 이 단어는 ‘환영’ 또는 ‘환각’이라는 번역어로 사용되기도 한다. 생성형 AI에서 할루시네이션 현상이 발생하는 이유는 생성형 AI가 대규모의 데이터에서 통계적 패턴을 찾아내는 방식으로 학습하고, 학습한 것을 혼합하고 조합하여 새로운 텍스트를 생성해 내는 방식으로 작동하기 때문이다. 이러한 방식으로 작동하는 생성형 AI는 무엇이 진실이고 거짓인지를 정확히 판별해 낼 능력이 없다. 하지만 사용자는 인간의 언어를 모방하는 인공지능을 실제보다 더 똑똑하다고 착각하여 이를 의심 없이 신뢰하게 될 수 있으며, 이는 종종 생성형 AI가 만들어 낸 부정확한 결과가 실제 의사결정이나 결과물에 사용되는 문제를 초래한다.
생성형 AI를 업무에 적용하고자 할 때 이와 같은 정확성 부족은 잘못된 의사결정이나 결과물에 대한 신뢰의 저하로 이어질 수 있다. 또한, 생성형 AI가 출력한 결과의 정확성을 다시 한번 확인해야 하는 번거로움 때문에 생성형 AI의 활용성이 크게 감소할 수 있다. 예를 들어, 생성형 AI에게 어떤 정보에 대해 신뢰할 수 있는 출처를 알려달라고 요청할 경우 생성형 AI는 마치 실제처럼 느껴지는 가상의 출처를 만들어 내 대답할 수 있으며, 이를 의심 없이 논문이나 보고서 등에 사용했다가는 낭패를 겪을 수 있다. 따라서, 이와 같은 출처의 정확성 여부를 확인하는데 추가적인 시간이 소요되며, 이와 같은 비효율성과 번거로움 때문에 생성형 AI의 활용을 꺼리게 되는 결과를 초래할 수 있다.
생성형 AI의 한계를 극복하는 전략과 팁
본 블로그에서는 이와 같은 생성형 AI의 한계를 극복하면서 챗GPT를 활용할 수 있는 방법에 대해서 살펴보고자 한다. 즉, 앞서 살펴본 일관성과 정확성의 부족과 같이 현재 생성형 AI가 가진 한계에도 불구하고 챗GPT를 활용하여 업무 효율을 높일 수 있는 전략을 강구하고 실질적인 팁을 제공하고자 한다.
예를 들어, 일관성과 정확성의 부족이 현재 생성형 AI가 가진 내재적인 문제점이라면, 일관성과 정확성이 크게 요구되지 않는 업무 분야에 생성형 AI를 주로 활용함으로 이러한 문제점을 최소화할 수 있다. 새로운 아이디어를 생성하기 위한 브레인스토밍이나 마케팅 콘텐츠의 초안작성 등과 같은 경우 생성형 AI의 쓰임새가 매우 높다고 볼 수 있다. 향후 이 블로그에서는 이와 같이 생성형 AI를 실질적으로 활용하는 방법과 생성형 AI를 통해 업무 효율을 높일 수 있는 팁을 제시해보고자 한다.
참고문헌
https://parivedasolutions.com/perspectives/managing-the-non-deterministic-nature-of-generative-ai
https://www.nytimes.com/2023/03/29/technology/ai-chatbots-hallucinations.html
'IT∙인터넷 > 생성형 AI' 카테고리의 다른 글
[챗GPT 활용법] 챗GPT로 보고서 쓰기 시작부터 끝까지: 목차 작성 단계 (1) | 2024.08.18 |
---|---|
[챗GPT 활용법] 챗GPT로 보고서 쓰기 시작부터 끝까지: 주제 선정 단계 (1) | 2024.08.17 |
[챗GPT 활용법] 영문 비즈니스 이메일 작성 (0) | 2024.07.17 |
댓글