검색 엔진 최적화 는 내 콘텐츠 순위를 향상 시키기 위한 기술적인 방법으로 내 콘텐츠를 더 빠르게 로딩 시키고 검색 엔진 봇이 크롤링 하기 쉽게 만드는 것이 핵심 입니다.
이런 기술적인 방법은 내 글에 내가 직접 개입할 수 있는 것에 중점을 둔 온 페이지 SEO 라고 합니다.
반대로 내 글이 아닌 다른 채널을 통해 내 글에 대한 SEO 적인 요소를 방법을 고려할 수 있는,
오프 페이지 SEO 라는 영역이 있으며 흔히 백링크(BACK LINK) 를 사용합니다.
기본적으로 검색 엔진은 사용자에게 가능한 범위에서 최고의 결과 값을 제공하고 싶어 합니다.
그런 결과 값을 도출하기 위해 검색 엔진 봇은 여러가지 요소에 따라 내 글을 크롤링 하고 평가 하고 있습니다.
검색 엔진 최적화 기본 요소
콘텐츠 로딩 속도
평균적으로 다른 사용자들은 웹 페이지가 로딩 되는 시간에 대해 아주 민감하게 반응하고 있습니다.
2016년 기준 한 연구 결과 사용자가 웹 사이트를 방문할 때 약 3초 이내에 로딩 되지 않는다면 다른 웹 페이지 방문을 고려할 것이라는 아주 중요한 결과를 확인 했습니다.
이런 시간적인 기다림은 날이 갈 수록 더욱 짧아지고 있는 추세로 실제로 2022년 새롭게 발표한 연구 결과는 과거 로딩 시간보다 약 0.3% 감소한 추세로 나타나기도 했습니다.
만약 내 글의 로딩 속도가 느리다면 다른 사용자들에게 외면을 받게 되고 트레픽 감소와 더불어 기술적인 검색 엔진 최적화 에도 불리한 영향으로 작용하게 될 것 입니다.
이 같은 추세는 앞으로도 감소할 여지는 없으며 오히려 더 빨라진 로딩 속도를 더 선호하는 경향으로 나타날 것 입니다.
바꾸어서 생각해 보세요.
여러분이 어떤 정보를 검색하려 할 때 웹 페이지를 서핑 하는 과정에서 로딩 시간이 현저히 느린 페이지에 충분한 시간을 투자할 수 있을까요?
크롤링 편의성 제공
검색 엔진 최적화 를 고려할 때 검색 엔진은 봇을 통해 내 콘텐츠를 선행적으로 크롤링 하고 있습니다.
특히 봇은 크롤링 하는 과정에서 내 콘텐츠의 여러 링크를 이동해 다니며 사이트 구조를 참고하고 이해하고 있습니다.
적절한 내부 연결 구조를 구축해 검색 엔진 봇이 좋아하는 SEO 결과를 만드는 것이 중요 합니다.
이런 봇은 보통 실시간으로 그리고 자동으로 여러 웹 사이트를 흘러 다니며 콘텐츠를 파악하고 있습니다.
하지만 특수하게 “robots.txt” 파일을 이용해 봇에게 조금 더 편리한 내 웹사이트 길 안내를 제공해 줄 수도 있습니다.
아쉽게도 검색 엔진 봇은 완벽한 존재가 아닙니다.
내 콘텐츠의 검색 엔진 최적화 를 위해 봇에게 “robots.txt” 파일을 제공해 봇이 미처 크롤링 하지 못 하고 지나친 콘텐츠를 좀 더 꼼꼼히 소개하는 방법도 있을 수 있습니다.
404 페이지 오류
우리는 콘텐츠를 발행하고 관리하는 과정에서 삭제 되거나 다른 이유(비공개 등)로 다른 사용자들에게 갑작스레 정보를 제공할 수 없는 경우를 피해야 할 것 입니다.
특히 이런 경우에 더 위험한 이유는 일반적으로 다른 사용자들 보다 검색 엔진 봇은 내 콘텐츠의 404 페이지를 더 세심하게 찾을 수 있는 가능성이 아주 높습니다.
하지만 대부분의 웹 사이트(콘텐츠 포함)에는 404 페이지 오류에 대한 링크가 포함되어 있습니다.
이런 오류는 시간이 지남에 따라 자연스럽게 검색 엔진 봇에 의해 제거 되지만 악성적인 404 페이지 오류는 자신이 직접 해결할 수 밖에 없습니다.
흔히 발생되는 404 페이지 오류
웹 페이지에 속한 일부 콘텐츠를 삭제하거나 비공개 하는 경우로,
나는 비록 해당 콘텐츠를 삭제하거나 비공개 전환을 했을 지라도 과거에 이미 검색 엔진 봇에 의해 크롤링 되어 검색 엔진 검색 결과에 노출되고 있는 경우 입니다.
하지만 위 경우는 검색 엔진 봇에 의해 시간이 지남에 따라 자연스레 해결됩니다.
주의 할 점은 이렇게 삭제하거나 비공개 하는 콘텐츠에 대한 내 웹 페이지 상의 다른 내부 연결 링크는 없어야 합니다.
악성적인 404 페이지 오류
마찬가지로 일부 콘텐츠를 삭제하거나 비공개 하는 경우 해당하는 콘텐츠가 내 웹사이트에 내부 연결 링크로 구축되어져 있는 경우 입니다.
이 경우 검색 엔진 봇에 의해 자연스럽게 수정되지 않습니다.
내가 직접 해당하는 내부 연결을 정리하지 않는 이상 지속적으로 404 페이지 오류는 유지되며 검색 엔진 최적화 측면에서도 좋지 못한 결과를 가져올 것 입니다.
웹 페이지 또는 콘텐츠의 최신화는 항상 신경써야 할 부분 입니다.
하지만 우리가 미처 예상하지 못하는 SEO 적인 측면도 고려해 보아야 할 것 입니다.
과도한 중복 콘텐츠 발행
내 웹 사이트 또는 다른 웹 사이트에 중복되는 콘텐츠가 있는 경우 검색 엔진은 원본이 어떤 것인지 판단하고 있습니다.
콘텐츠의 최신화와는 별개의 개념으로 이 같은 경우는 더 과거에 최초 발행 된 콘텐츠를 기준으로 삼는 것이 일반적 입니다.
다만 검색 엔진이 소위 인정한 공신력 있는 웹 사이트(백서 등)는 예외일 수 있습니다.
또한 만약 내가 발행한 콘텐츠가 이런 중복 콘텐츠로 분류될 경우 검색 엔진은 안 좋은 SEO 점수를 부여할 수 있습니다.
결국 콘텐츠를 발행하기 전 주의가 필요할 수 있는 경우로 다른 콘텐츠를 참고해 내 콘텐츠 내용을 구성할 수는 있지만 과도하게 중복되는 경우는 피해야 할 것 입니다.
연관 글 : 콘텐츠 발행 중 핵심 키워드 주의 사항
검색 엔진 최적화 안전한 페이지 구축
최신의 검색 엔진은 사용자들이 웹 사이트를 검색하는 과정에서 개인 정보를 보장할 수 있는 장치가 구축 된 웹 사이트를 선호하는 경향이 있습니다.
이미 국제 표준이 구축되어 다른 여러 웹 사이트들은 다른 사용자들에게 개인 정보를 지킬 수 있는 기술적인 방법을 사용하고 있습니다.
그 최소한의 기준이 흔히 알고 있는 HTTPS 즉 SSL 보안 인증 입니다.
SSL 보안 인증을 구축한 웹 사이트는 과거 HTTP 에서 HTTPS 로 사이트 구축이 가능하고 실제로 보안적으로 안전한 웹 페이지의 기능을 제공 합니다.
일반적으로 SSL 보안 인증이 구축 된 웹 사이트는 브라우저와 웹 사이트 간에 전송되는 정보를 다른 사용자가 중간에서 가로챌 수 없도록 하여 해킹에 안전합니다
검색 엔진은 보통 최신, 그리고 진보적인 기술을 선호하고 있습니다.
또한 이런 기술이 모든 사용자들에게 이로우며 긍정적인 결과를 도출할 수 있다면 그 방법이나 수단을 적극적으로 채용하고 있는 추세 입니다.
참고로 네이버 블로그는 SSL 보안 인증이 필요 없지만 워드프레스로 구축한 블로그형 사이트에는 검색 엔진 최적화 를 위해 꼭 SSL 보안 인증이 필요할 것 입니다.
XML 사이트 맵 제출
XML 사이트 맵은 내 웹 사이트의 모든 페이지, 글 등을 포함하고 있는 일종의 지도 입니다.
검색 엔진 최적화 측면에서 잘 만들어진 웹 사이트는 XML 사이트 맵이 필요하지 않을 수도 있습니다.
하지만 그렇지 않는 경우가 대다수이기에 내 웹사이트의 XML 사이트 맵을 제출하는 것은 여전히 유효하고 긍정적인 반응을 얻을 수 있는 좋은 수단일 것 입니다.
검색 엔진 마다 이런 정보를 제출할 수 있는 전용 페이지가 존재하며,
네이버는 네이버 서치어드바이저에서 가능하며 구글은 구글 서치콘솔에서 가능 합니다.
검색 엔진 최적화 글을 마치며
검색 엔진 최적화 를 위한 기술적인 SEO 즉 온 페이지 SEO 의 기본에 대해 알아보았습니다.
다소 어렵고 무거운 주제일 수 있지만 익숙해지고 적응된다면 실제로 내 콘텐츠에 적용하는 것은 생각보다 어렵지 않을 수 있습니다.
중요한 것은 SEO 라는 영역이 실제로 존재하며 모든 웹 사이트와 콘텐츠 등에 영향을 미치고 있어,
앞으로도 더욱 중요한 요소로 자리 잡을 것이라는 사실 입니다.
레몬링크는 회원 여러분에게 보다 알차고 유익한 정보를 제공하기 위해 최선을 다하고 있습니다.
콘텐츠를 발행 함에 있어 이런 긍정적인 SEO 방법을 고려해 내 콘텐츠가 더 널리 확장될 수 있도록 노력해 보세요.