내 웹사이트의 트래픽이 감소한 이유는 무엇입니까?
게시 됨: 2021-07-19웹사이트의 트래픽이 걱정스럽게 절벽에서 떨어진 이유가 궁금하십니까? 운 좋게도 대부분의 경우 고칠 수 있습니다. 트래픽 손실의 원인과 가능한 원인 및 가능한 수정 사항을 살펴보겠습니다!
트래픽 손실의 원인 식별
웹사이트에 대한 트래픽 손실의 가능한 원인을 조사하기 전에 먼저 어떤 트래픽 소스가 영향을 받았는지 확인하는 것이 가장 좋습니다.
Google Analytics의 소스/매체 보고서는 사용자를 여러 그룹으로 분류하여 어느 그룹이 감소했는지 확인하는 데 이상적입니다. [획득 > 모든 트래픽 > 소스/매체]

어떤 트래픽 소스 또는 매체가 사망했는지 식별하는 가장 쉬운 방법은 가장 높은 세션 수부터 시작하여 각 소스 및 매체 조합을 클릭한 다음 표시된 사용자 그래프에서 눈에 띄게 감소했는지 시각적으로 확인하는 것입니다.

통계적으로 유의미한 충분한 데이터를 얻으려면 지난 3개월 동안의 기간을 선택하는 것이 좋습니다. 매주 데이터를 표시하면 주말에 트래픽이 급격히 감소하는 것을 자연스럽게 제거하는 데 도움이 됩니다.
소스/매체 보고서 내에서 변경사항을 식별하는 또 다른 방법은 데이터 스냅샷 전후에 대해 두 날짜 범위를 비교하는 것입니다. 기간을 동일한 길이로 유지하고 공정한 비교를 위해 동일한 수의 주말을 포함합니다.

각 소스/매체 비교 아래에서 % 변경 메트릭을 확인하여 유의미한 하락을 찾으십시오.

모든 채널에서 트래픽이 0으로 떨어졌다면 추적 스크립트 코드가 더 이상 존재하지 않거나 더 이상 작동하지 않을 가능성이 큽니다. Google의 Tag Assistant와 같은 도구를 사용하여 이면에서 무슨 일이 일어나고 있는지 확인하십시오.
또한 계절성은 온라인의 모든 주제에 영향을 미치므로 잘못된 결론을 내리기 전에 Google 트렌드 데이터에서 트렌드 데이터를 확인하세요.

유기적 트래픽 감소
CPC 유료 트래픽의 하락은 간단하게 해결할 수 있습니다. 캠페인을 끄거나 결제 수단이 만료되었거나 예산이 소진되었습니다.
유기적(검색 엔진) 트래픽의 경우 다음과 같은 가장 일반적인 이유와 함께 여러 가지 문제가 있을 수 있습니다.
차단된 robots.txt 파일
robots.txt 코드 한 줄로 검색 엔진 봇에게 전체 도메인을 허용하지 않도록 지시하여 모든 검색 결과에서 제거할 수 있습니다. 이것은 하루나 이틀 후에 효과가 나타나며 파괴적인 영향을 미칩니다. 이 실수는 새로 개발된 웹사이트를 숨겨진 스테이징 도메인에서 기본 도메인으로 전송하는 동안 자주 발생하며, 실수로 아래와 같이 차단 robots.txt 파일을 함께 가져옵니다.

차단된 robots.txt 파일과 유사한 문제는 검색 엔진에 웹 페이지 색인을 생성하지 않도록 지시하는 메타 로봇 태그를 실수로 포함하는 것입니다. 아래의 noindex HTML 코드 예를 참조하세요.

301 리디렉션 누락
검색 엔진은 웹 페이지를 색인화하고 일관되게 순위를 매기기 위해 동일한 웹 주소 URL을 사용합니다. 주요 웹 페이지의 URL이 변경되면 사용자를 이전 URL에서 새 URL로 자동 전달하기 위해 301 리디렉션이 필요합니다. 이 301 리디렉션 지침은 검색 엔진에 순위 지정을 위해 포커스와 가중치를 이동할 URL을 알려줍니다.

깨진 URL을 방문하면 404 오류가 발생합니다. Google Search Console의 크롤링 보고서를 사용하여 깨진 링크를 발견하거나 Screaming Frog와 같은 도구를 사용하여 웹사이트를 완전히 크롤링하고 다음에 숨겨진 문제를 식별할 수 있습니다.

검색 엔진 패널티
검색 엔진 결과는 20년 이상 동안 게임이 되었습니다. 사람들은 때때로 교활하고 비윤리적이거나 부정직한 방법으로 무료 트래픽을 늘리기 위해 경쟁업체보다 웹 페이지를 높이려고 계속 노력합니다!
Google 및 기타 검색 엔진은 부자연스러운 SEO 기술로 높은 순위에 오른 웹 페이지 또는 특정 검색을 수행한 후에는 사용자가 만족하지 않을 콘텐츠 또는 경험이 있는 웹 페이지를 지속적으로 제거하고 있습니다. SEO 파워를 인위적으로 높이기 위해 스팸 네트워크에서 1,000개 이상의 백링크에 대해 비용을 지불한 웹사이트에 영향을 미치는 Google 페널티의 아래 예를 참조하십시오(이 클라이언트가 Hallam의 서비스를 사용하기 전에 수행됨).


다음을 포함하여 검색 엔진 패널티를 받을 수 있는 방법에는 여러 가지가 있습니다.
- 의도적으로 배치된 다수의 외부 백링크
- 열악하거나 자동 생성되거나 복제된 콘텐츠
- 콘텐츠 내 키워드 스팸
- 사용자에게 검색 엔진 봇과 다른 웹 페이지 콘텐츠 표시
Google의 Search Console 내에서 거부 파일을 사용하여 백링크 스팸을 취소할 수 있습니다. 여기에서 Google의 관점에서 도메인 이름의 상태에 대한 매우 편리한 보고서도 찾을 수 있습니다.
외부 요인
때때로 다음을 포함하여 아무 잘못 없이 검색 엔진 트래픽을 잃을 수 있습니다.
- 검색 결과를 높이고 결과를 낮추는 경쟁
- 검색 결과의 더 많은 공간이 광고 증가 또는 추천 스니펫 결과를 표시하는 데 사용됩니다.
- 외부 웹사이트의 링크가 제거되거나 실수로 끊어짐
- 검색 엔진이 페이지를 모바일 친화적이라고 간주하지 않아 모바일 순위가 낮아짐
- 귀하의 콘텐츠가 이전보다 덜 유용하다고 간주하는 검색 엔진 알고리즘 업데이트로 인한 순위 하락
SEO에 피해를 주는 외부 요인이 의심되는 경우 방문 페이지 보고서에서 이 변경으로 인해 영향을 받은 방문 페이지를 확인하는 것이 가장 좋습니다. [행동 > 사이트 콘텐츠 > 방문 페이지]

여기에서 페이지 상단의 [+ 세그먼트 추가] 버튼을 사용하여 자연 트래픽만 표시하도록 데이터를 분류할 수 있습니다.

이제 Google Analytics의 모든 보고서에는 자연 트래픽의 데이터 만 표시 됩니다. 날짜 비교 도구(위 참조)를 사용하여 최근에 트래픽이 손실된 방문 페이지를 식별할 수 있습니다.
시간이 지남에 따라 트래픽이 갑자기 감소한 이유가 밝혀지지 않으면 Google Analytics에서 다음과 같은 다른 유용한 보고서를 사용해 보십시오.
- 기기 카테고리 보고서 – [오디언스 > 모바일 > 개요]
- 위치 보고서 – [대상 > 지역 > 위치]
- 새로운 대 보고서 반환 - [청중 > 행동 > 신규 vs. 복귀]
- 캠페인 보고서 - [획득 > 캠페인 > 모든 캠페인]
유기적 순위 하락의 경우 SEMRush 및 Ahrefs와 같은 도구를 사용하여 순위가 하락하여 더 이상 트래픽을 발생시키지 않는 키워드를 식별하고 식별할 수 있습니다. 도메인 이름을 전환하면 최대 2주 동안 순위가 하락한 후 다음과 같은 상태로 돌아가는 경우가 많습니다.

추천 트래픽 감소
수익성 있는 트래픽은 출판물, 웹 디렉토리 또는 기업용 공급업체 목록과 같은 다른 웹사이트 추천 링크에서 올 수 있습니다.
추천 보고서는 위에 표시된 날짜 범위 비교 방법과 결합할 때 유용한 추천의 도메인 이름 소스를 제공합니다. [획득 > 모든 트래픽 > 추천]

추천 도메인 이름을 클릭하면 귀하의 웹사이트로 트래픽을 보내는 실제 추천 페이지가 나타납니다. 이것은 한때 존재했던 깨진 또는 누락된 외부 링크를 드러낼 수 있으며, 이는 SEO 가치를 추가하고 이전에 관련 웹사이트 방문자를 보냈습니다.
도메인에 걸쳐 만들어진 링크의 전체 그림을 얻으려면 Ahrefs와 같은 링크 분석 도구를 통해 자신의 도메인을 실행할 수 있습니다. 이 도구는 일정 기간 동안 새/잃어버린 링크를 보여주는 백링크 프로필에 대한 개요를 제공합니다.

피해 복구
웹사이트에서 트래픽 손실로 이어지는 기술적 SEO 문제가 있는 경우 전문적인 도움을 구하는 것이 현명합니다. 기술 문제를 잘못된 방법으로 수정하면 실제로 훨씬 더 심각한 피해와 귀중한 트래픽 손실이 더 커질 수 있습니다!
상식, 프로세스 체크리스트 및 자동화된 오류 검사 도구는 인적 오류 실수가 비즈니스에 큰 영향을 미치기 전에 식별하고 수정하는 가장 좋은 방법입니다. 구현하는 데 시간이나 비용이 거의 들지 않지만 가장 중요할 때 많은 손실 가치를 절약할 수 있습니다.
SEO와 관련하여 도움이 필요하시면 주저하지 마시고 저희에게 연락해 주십시오.
