구글 전문가들, AI 생성 웹사이트의 효과적인 SEO를 위해 인간 전문가의 중요성 강조
Brief news summary
구글 전문가인 존 뮬러와 마틴 스플리트는 "Search Off The Record" 에피소드에서 AI 웹사이트 빌더가 일으키는 SEO 문제를 다뤘습니다. AI는 빠른 사이트 제작을 가능하게 하지만, 전문가의 가이드 없이 정규 태그, 사이트맵, 제대로 설정된 robots.txt 파일과 같은 핵심 SEO 요소들을 종종 간과합니다. 뮬러는 애매한 SEO 지침이 불명확한 개발자 브리핑과 같아 잘못된 결과를 초래한다고 비유했습니다. 효과적인 SEO를 위해서는 정확한 지침, HTML 검증, 잘 구조화된 URL, 그리고 크롤러가 자바스크립트에 접근할 수 있는지 확인하는 것이 중요합니다. 뮬러는 Hugo와 Firebase 같은 도구를 사용한 경험을 이야기했고, 스플리트는 구글 AI 스튜디오에서 자주 발생하는 코딩 문제들을 지적했습니다. 둘 다 AI가 노코드 개발을 쉽게 만들어주지만, 기술적 전문성은 여전히 필수라고 입을 모았습니다. AI가 생성한 HTML과 콘텐츠만으로는 부족하며, 심지어 사이트의 가치에 손상을 줄 수도 있습니다. 중요한 SEO 요소들은 사이트의 크롤링 가능성과 자바스크립트 접근성입니다. AI 도구는 코딩을 도울 수 있지만, 특히 생산 수준의 사이트를 위해서는 SEO 역량을 대체할 수 없습니다. 간단한 개인 또는 정적 프로젝트의 경우 AI가 유용하긴 하지만, 여전히 인간의 검토와 함께 SEO 최적화와 기능 유지를 위해 신경 써야 합니다.SEO 필수 요소인 정규화 태그(canonical), 사이트맵, robots. txt 파일은 AI 도구가 웹사이트를 생성했다고 해서 자동으로 구성되지 않는다. 이 중요한 점은 최근 그들의 팟캐스트 ‘검색 기록 밖에서(Search Off The Record)’에서 구글 검색 관계팀 멤버인 존 뮐러(John Mueller)와 마틴 스플릿(Martin Splitt)이 강조했다. 두 사람 모두 개인 프로젝트에 AI 코딩 도구를 실험하면서 공통적인 한계를 경험했다. 이 도구들이 빠르게 작동하는 웹사이트를 만들어내긴 했지만, 올바른 SEO를 위해서는 명확한 기술적 지침과 입력이 여전히 필요하다는 것이다. **AI에게 "SEO 추가" 지시하기** 뮐러는 AI 코드 생성과 작업하는 것을 검색 최적화에 익숙하지 않은 개발자와 협력하는 것에 비유했다. 그는 팟캐스트에서 이렇게 설명했다: “AI 시스템에 ‘이거에 SEO 좀 넣어줘’라고 말할 수는 있지만, 어떻게 되는지 보면, 개발자에게 ‘좀 메타 태그 넣고 구조화 데이터 추가해’라고 하는 것과 같아. ” 모호하거나 부정확한 지침은, 인간이든 AI든 마찬가지로 애매한 결과를 낳는다. 뮐러는 요구 사항을 처음부터 명확히 정의할 때 더 좋은 결과를 얻었다고 밝혔다. 예를 들어, 도메인 설정, 정규화 태그, 사이트맵 파일, robots. txt 구성 등을 구체적으로 명시했고, 페이지들이 적절한 HTML을 사용하며 제대로 링크되어 있는지 확인했다. 또한, URL이 콘텐츠를 제공하는지, 자바스크립트 파일이 robots. txt에 의해 차단되지 않았는지 사전 점검도 실시했다. **그들의 프로젝트** 뮐러는 구글봇이 요청을 어떻게 처리하는지 관찰하기 위해 테스트 웹사이트를 구축했고, 이를 Firebase 호스팅에 배포하며 Hugo 정적 사이트 생성기와 GitHub 버전 관리를 사용했다. 최근에는 VS Code와 Copilot을 이용하던 것에서 벗어나 명령줄 도구인 Claude Code와 Gemini CLI를 선호하게 됐다. 한편, 스플릿은 Google AI Studio를 이용해 클라이언트 사이드 자바스크립트 도구를 개발하는 실험을 했다. 생성된 결과물은 읽기 쉽고 일반적인 Next. js 애플리케이션과 유사했지만, 반복적으로 불필요한 라이브러리를 포함하는 문제가 있었다. 그는 이렇게 말했다: “30분 동안 AI에 요청했는데, 원하는 대로 되지 않게 하거나 내 방식대로 하도록 하려고 했어요. 그게 좀 이상했어요. ” **기술적 전문성은 여전히 중요** 두 사람은 코딩을 이해하지 않아도 되는 ‘바이브 코딩’(vibe coding)의 약속과, 실질적으로는 기술적 지식이 필요하다는 현실 사이의 긴장을 인지했다.
뮐러는 모든 단계에서 전문가의 지식이 결과를 향상시킨다고 강조했다. 예를 들어, 선호하는 사이트 생성기를 아는 것, 사전 검증을 설정하는 방법 등을 숙지하는 것이 중요하다. 가이드 없이 AI는 구조를 추측할 것이다. 이는 정적 사이트 생성기이든, 자바스크립트 중심 프레임워크이든, 또는 데이터베이스 백엔드가 포함된 CMS이든 마찬가지다. 뮐러는 다음과 같이 말했다: “이 모든 것들은 개발자에게 말을 걸면 같이 하는 가정이지만, 그냥 ‘웹사이트 하나 만들어줘’라고만 하면 AI가 하나를 골라내요. ” 개인적이거나 위험도가 낮은 정적 사이트의 경우, 이러한 탐색적 접근법이 충분할 수 있다. 그러나 사용자 데이터 처리 또는 실서비스 운영과 같은 경우, 뮐러는 전문가의 도움을 받는 것이 바람직하다고 권장한다. **바이브 코딩 사이트의 SEO 및 가시성** 뮐러가 만든 사이트들은 적절한 HTML을 렌더링하여, 바이브 코딩된 것인지 쉽게 구별하기 어렵게 했다. 그는 말했다: “실질적으로 ‘이건 바이브 코딩 사이트입니다’라고 인지하는 사람은 거의 없어요, ”라고 하면서도, 일부 바이브 코딩 프레임워크가 식별 가능한 패턴을 남길 수 있다고 경고했다. 또한 콘텐츠 관련 우려도 제기했다. 깔끔하게 정리된 사이트는 소유자가 AI를 이용해 콘텐츠를 생성하는 유혹에 빠지게 할 수 있다. 뮐러는 이 점을 인정하면서도, AI가 쓴 콘텐츠는 제한적 가치밖에 없다고 평가했다. 스플릿도 이에 동의하며, AI 생성 콘텐츠는 왜 사용자가 사이트를 방문하는 대신 AI를 바로 묻지 않는지에 대한 의문을 제기했다. 이전에 뮐러는 Reddit에서 리뷰했던 Bento Grid Generator 같은 바이브 코딩 사이트에서 크롤러 문제, 오래된 메타 태그, 자바스크립트 내의 콘텐츠 문제 등을 지적하며, 이와 유사한 문제를 언급한 바 있다. **향후 방향** 이 팟캐스트는 바이브 코딩 사이트에 대한 공식 가이드라인이나 정책 발표는 하지 않았지만, 두 사람의 경험을 바탕으로 통찰을 공유했다. AI 코딩 도구를 활용하는 이들에게 중요한 점은, AI가 일부 코딩 작업에 효율적일 수 있지만, SEO와 같은 결정에는 여전히 전문 지식이 필요하다는 것이다.
Watch video about
구글 전문가들, AI 생성 웹사이트의 효과적인 SEO를 위해 인간 전문가의 중요성 강조
Try our premium solution and start getting clients — at no cost to you