AI 7

[AI 지식] 100명에게 100개의 UI를, 생성형 UI

유저는 4천만명, UI는 하나 네이버는 온 국민이 사용하는 서비스다. 와이즈앱 따르면 2024년 네이버 모바일 앱 MAU는 4,400만명에 달한다. 그런데 이 4천만명이 넘는 사용자가 모두 똑같은 화면을 본다. 내가 보는 화면과 옆 사람이 보는 화면이 다르지 않은 것이다. 뉴스 기사, 광고, 추천 영상 같은 컨텐츠가 다를 수는 있어도 이를 담는 틀인 UI는 동일하다. 이것이 웹 서비스의 전형적인 모습이다. 물론 A/B테스트가 일반화되고 개인화 니즈가 커지면서 두 가지 이상의 UI를 제공하는 경우도 많아졌다. 하지만 몇 개의 거대한 사용자 집단 단위로만 UI를 다양화하는 수준이다. 개별 사용자마다 다른 UI를 제공하지는 못한다. 화면을 하나씩 더 만들 때마다 제작비와 유지보수 비용이 그에 비례해서..

AI 2025.12.17

[AI 지식] GPT는 정말로 거짓말을 더 많이 할까?

그 동안 여러 AI서비스를 이용하면서 서비스마다 분명한 차이점이 존재한다는 걸 느끼게 되었다. 대표적으로 "GPT는 유독 환각이 심하다."라는 믿음이 생겼다. AI서비스 사용 기간이 늘어나면서 이런 믿음은 더 강해졌고, 이것이 나만 느끼는 주관적인 감정인지 아니면 객관적으로 입증할 수 있는 현상인지 궁금해졌다. 이를 밝히기 위해서 몇가지 자료를 찾았고 나름의 답을 내릴 수 있었다. 모델별 할루시네이션 발생 비율 먼저, 모델별 할루시네이션 발생 빈도를 측정한 자료를 찾았다. 참고한 자료는 HHEM(Hughes Hallucination Evaluation Model) 리더보드(Leaderboard)다. HHEM은 LLM 답변이 할루시네이션인지 아닌지를 판단하는 AI모델이다. HHEM 리더보드에는 HH..

AI 2025.12.06

[AI 지식] 왜 못알아듣지? 맥락 인식의 비밀(2/2)

[AI 지식] 왜 못알아듣지? 맥락 인식의 비밀(1/2)[AI 지식] 왜 못알아듣지? 맥락 인식의 비밀(2/2) 지난 글에서는 AI 맥락 인식 능력 중 단기 맥락을 다뤘다. 오늘은 장기 맥락에 대해 이야기해보겠다. 장기 맥락(=과거 대화에 대한 기억) 오랫 동안 알고 지낸 사람과의 대화는 즐겁다. 마음도 편하고 위로를 받기도 한다. 왜 그럴까? 아마, 상대가 나에 대해서 잘 알고 있기 때문일 것이다. 내가 어떤 경험을 했는지, 내가 뭘 좋아하는지, 내가 어떤 고민을 갖고 있는지 알기에 상대는 내가 듣고 싶은 말을 해줄 수 있다. 이는 AI도 똑같다. AI가 나에 대해서 잘 안다면, AI와의 대화가 훨씬 편하고 즐거울 것이다. 실제로 ChatGPT와 Gemini는 이런 대화 경험을 제공할 ..

AI 2025.11.23

[AI 지식] 왜 못알아듣지? 맥락 인식의 비밀(1/2)

[AI 지식] 왜 못알아듣지? 맥락 인식의 비밀(1/2)[AI 지식] 왜 못알아듣지? 맥락 인식의 비밀(2/2) AI는 왜 엉뚱한 답을 할까Uesr: 닭가슴살 먹으면 뭐가 좋아?AI: 닭가슴살은 필수 아미노산이 풍부한 고품질 단백질의 훌륭한 공급원이며 ...Uesr: 쉬운 요리 추천해줘.AI: 참치 마요 덮밥 조리법을 알려드릴게요.Uesr: 그거 말고 닭가슴살로 할 수 있는 요리를 알려줘. AI를 쓰다보면 종종 엉뚱한 답을 받을 때가 있다. 나는 도쿄의 날씨를 물어봤는데 AI는 도쿄의 역사를 알려주는 식이다. 이런 현상은 AI가 대화의 맥락(Context)을 제대로 파악하지 못했을 때 생긴다. 위에 나온 대화를 보면, AI가 '닭가슴살'이라는 맥락을 놓쳤다는 걸 알 수 있다. 맥락을 고려했다면,..

AI 2025.11.16

[프롬프트 작성 팁] AI 답변 읽다 지친다면? '구조화'로 검토 시간 줄이기

AI의 답변을 더 빨리 이해할 수 있을까? AI가 잘못된 의견을 냈는지 아닌지를 단번에 파악할 수 있을까? 어느 새 업무에서 AI를 떼어 놓을 수 없는 시대가 되었다. 그러다보니 AI의 답변을 읽는 시간도 길어지고 있다. 문제는 글을 계속 읽다보면 어느 순간 집중력이 떨어져서 답변의 유용함, 진위 여부, 논리적 결함 등을 판단하기 어려워진다는 점이다. 에너지를 적게 쓰고도 AI의 답변을 검토할 수는 없을까? 이럴 때는 AI가 답변을 구조화하도록 프롬프트를 작성하면 좋다. 글이 구조화되어 있으면 글을 쉽게 읽을 수 있을 뿐 아니라 논리 관계, 사실 관계 등을 따지기도 쉬워진다. 추천하는 구조화 방법은 2가지이다.① 주장 vs 근거 ② 사실 vs 의견 이제부터 이렇게 구조화를 하면 어떤 점이 좋은지 ..

AI 2025.11.12

[프롬프트 작성 팁] AI 답변, 원하는 포맷으로 받기(마크다운 활용법)

AI의 답변 형식을 바꿀 수 있을까? 위 사진에는 AI의 일반적인 답변 포맷이 담겨있다. 답변이 깔끔하게 잘 정돈되어있다. 그런데 가끔은 다른 형식으로 답변을 받고 싶은 경우도 있다. 물론, 이럴 때는 AI에게 원하는 포맷을 설명하고 답변을 새로 받으면 된다. 그러나 포맷을 글로 설명하는건 생각보다 까다롭고 귀찮다. 사소한 부분은 직접 수정하는게 빠를 때도 많다. 만약, 포맷을 말로 설명하지 않고 템플릿으로 전달할 수 있다면 일관된 형식으로 답을 받을 수 있을 것이다. 마크다운(Markdown)은 이런 템플릿 역할을 하는 언어이다. AI에게 답변의 형식을 마크다운 형태로 알려주면 AI는 지정된 형식으로 글을 정리한다. 아래 사진을 보면, 요청한 포맷과 동일한 형태로 답변이 정리되어 있음을 알 수..

AI 2025.11.09

[프롬프트 작성 팁] 출처 밝히기, AI의 거짓말에 속지 않으려면?

나: 피부 좋아지는 법 알려줘.AI: 바나나를 먹으면 피부가 좋아져요. AI의 답변이 진실인지 아닌지 어떻게 알 수 있을까? 다양한 방법이 있지만 가장 쉬운 방법 중 하나는 출처를 확인하는 것이다. 즉, "바나나를 먹으면 피부가 좋아진다."라는 문장을 어디에서 가져왔는지를 살펴보는 것이다. 만약, AI가 서울대학교 의과대학 연구팀이 게재한 논문에 나오는 문장을 인용한 것이라면 매우 높은 확률로 진실일 것이다. 그러나 네이버 블로그에 있던 문장을 가져온 거라면 진실이 아닐 가능성이 높다. 정보의 출처를 알 수 있다면, 이런 식으로 정보의 진위 여부를 간접적으로 유추해볼 수 있다. AI는 세상에 이미 존재하는 정보를 조합해서 답변을 하기 때문에 출처를 가지고 진위 여부를 따져보는 방법은 상당히 유용하다..

AI 2025.11.02