Cover Story 웹 분석 서비스
상태바
Cover Story 웹 분석 서비스
  • 승인 2004.10.01 00:00
  • 댓글 0
이 기사를 공유합니다

방문객 데이터로 행동 방향 분석 … ‘서비스·제품’ 둘 다 이용 가능
“움직이는 고객을 잡아야 성공한다”

웹 분석(Web analytics)의 기본 개념은 간단하며, 사이트 방문객을 자신들의 현금이나 사적인 데이터로부터 격리시킨다는 목적으로 이들의 행동을 추적하는 것에 다름 아니다. 이러한 목표를 위해 사용자의 모든 클릭, 쇼핑 카트 추가나 취소, 문자 입력 및 구매 등에 대한 정보를 수집, 비교 및 상호연관시킨다. 일부 분석 업체들은 심지어 모든 시장/서비스/콘텐츠/리드 클릭이 예측 가능하며, 이런 정보를 이용해 사이트를 보다 매력적이고 효율적으로 만들 수 있다고 주장하고 있다.

모든 정보의 수집은 방대한 양의 데이터를 의미하기도 한다. 그리고 당연히 우리는 업체의 예측을 그다지 신뢰하지는 않지만, 이 경우는 예외로 하기로 했다. 제 2부에서 테스트를 해 본 10가지 분석 서비스들 중 상당수가 데이터를 수집하고 분석하는 데 뛰어났으며, 복잡한 브라우저 오버레이 보고서와 잘 짜여진 스프레드시트, 그리고 정교한 캠페인 상호연관성을 제공했기 때문이다.
하지만 이런 모든 데이터를 유용한 정보로 전환시키고, 거기에 따라 행동하는 일은 만만치가 않았다. 이는 곧 웹 분석 툴들이(이번 경우에는 ASP에서 제공하는 것들이) 일상의 평범한 사업부문의 엔드유저들을 지원해야 한다는 것을 의미한다. 어떤 사용자들은 투입돼 분석을 잘 할 수 있겠지만 보고서 더미들을 파헤치기에는 시간도 능력도 부족한 사용자들도 있다. 심지어 어떤 이들은 너무 아는 게 없어서 10분마다 도움을 요청할지도 모른다. 보다 나은 분석 업체들은 이런 점을 인식하고 여기에 대응해서 좋은 도움과 교육 및 내비게이션, 그리고 이해하기 쉬운 보고서를 제공하기 위해 노력하고 있다.
그러나 이런 도움이 있다고 해서 이들 서비스가 완벽하게 아웃소싱되는 것은 아니며, IT의 지원과 전문 기술이 필요하다.
액세스 제어, 데이터 집합, 마케팅 캠페인 추적 및 구매 프로세스를 보고서로 모으는 일에는 모두 IT의 개입을 필요로 한다. 게다가 사용자들의 분석 기술 수준차를 감안할 때 인터페이스를 이용해 엔드유저들을 돕고, 이것이 작동 가능하게 만드는 데 충분할 만큼 데이터를 설명해 줄 필요가 있을 것이다.

네 가지 사이트 범주
다수의 기업 웹 사이트들은 네 가지 범주 가운데 하나에 속하며, 이러한 구분은 문제가 되는 척도들을 결정해 준다. 일단 어떤 유형인지를 확인하면 자신에게 중요한 분석 부문에 초점을 맞출 수 있다.

>> 전자상거래 사이트들은 이제 막 수익을 창출해 내고 있다. 이들 사이트의 주요 척도는 돌아오는 수에 대해 방문당 장바구니의 판매 및 전환 평균이다.

>> 리드 생성 사이트(lead-generation sites)에서는 누가 방문을 하고, 이들이 어떤 정보를 다운로드하고 싶어하는지를 알고자 한다. 여기서는 독특한 방문객들과 최고 URL들이 중요하다.
>> 맞춤 서비스 사이트에서는 사용자 요청 부하를 고객 서비스팀에서 사이트로 옮김으로써 들어오는 호출의 수와 통화 길이를 줄이면서 여전히 고객을 만족시킬 수 있기를 바란다. 이것은 검색에 성공한 방문객의 수와 서비스팀으로의 그 호출이 어떤 영향을 받는지에 따라 측정이 된다. 잃어버린 고객들로부터 오는 호출이 줄어들고 있는가? 서비스 관리자 수를 줄일 수 있는가?

>> 본지 사이트와 같은 콘텐츠 사이트들은 이중의 필요를 안고 있다. 우리는 필요한 정보를 찾는 방문객들을 배려해야 하며, 사업적 측면에서 얼마간의 광고를 파는 데 주저함이 없어야 한다. 이로 인해 세그먼트별로(우리 경우에는 사이트, 잡지 및 기술 부문) 최고의 URL 보고서가 필요하며, 사이트나 사이트 그룹에 걸쳐 측정을 해야 하는데, 이를 위해서는 유연한 세그먼테이션이 필요하다.

이러한 모든 추적 작업이 어떻게 이루어질까? 테스트한 모든 서비스들은 추적되는 각각의 웹 페이지에 자바스크립트 ‘태그’를 배치시켰다. 추적되는 페이지가 방문객의 브라우저별로 로딩이 되면, 이 자바스크립트 서비스는 ASP의 추적 서버를 다운로드하고 실행해 이들과 통신한다. 태그는 일반적으로 우리 테스트에서처럼 콘텐츠 관리 소프트웨어에 따라 큰 사이트들에 있는 모든 페이지의 헤더나 푸터(header/ footer)에 배치된다.
이 서비스들은 방문객의 기계에 이들을 인식할 쿠키를 배치한다. 쿠키는 세션이나 답방(return-visit)과 같은 척도들을 제공한다. 쿠키가 얼마나 효과적이냐는 경우에 따라 달라진다. 업체들은 공중 워크스테이션 브라우징의 불과 2%만이 쿠키 기능을 억제시켜두고 있다고 말하며, 테스트를 기준으로 볼 때 우리 생각도 마찬가지다.
이러한 태깅은 방문객들을 식별해줄 뿐만 아니라 사이트 세그먼테이션을 돕기도 한다. 기업의 웹 프레즌스에 다양한 협업 사이트가 포함돼 있을 때는(일반적인 구성) 브라우저 행동을 추적하는 게 중요하다. 예를 들어 우리 테스트에서는 CMP 미디어 LLC(본지를 출판하는 회사)에서 운영하는 150개의 웹 사이트를 복잡한 세그먼테이션의 모델로 삼았다.
우리는 모든 자매지들이 하는 것처럼 스스로 사이트를 측정 및 관리하고 있지만, 회사에서는 또한 전체 웹 사용량에 대한 큰 그림을 필요로 하고 있다. 그리고 다른 여느 조직과 마찬가지로, CMP는 서로 다른 제품, 서비스, 혹은 우리 경우에는 모니터링되고 관리되는 잡지 그룹들에 따라 다양한 시각을 갖고 있다. 분석 측면에서 볼 때 이들 각각은 하나의 세그먼트로 간주되며, 각 세그먼트는 고유의 태그가 필요하다.
이는 곧 www.nwc.com와 같은 단일 사이트가 세 가지 태그를 필요로 하는 세 가지 방식으로, 즉 따로, 부문의 일부로, 그리고 회사 이윤의 일부로 추적돼야 한다는 것을 의미한다. 왜 모든 CPM용으로 하나의 태그를 사용한 다음 특정 사이트용으로 데이터를 분석하지 않는 것일까? 간단히 답하자면 각각의 서비스 사업자는 자신들의 데이터 프로세스를 관리하며, 따라서 관리와 보고서는 경계선을 따라 태그별로 설정이 된다. 따라서 이러한 단일 태그 예에서는 전체 방문객 보고서가 www.nwc.com URL과 같은 고유 인덱스에 있는 데이터베이스 질의가 네트워크컴퓨팅에만 있는 데이터를 소팅해 줄 것이라고 기대할 만도 하다. 하지만 이런 데이터는 먼저 퍼블리케이션을 위해 로 포맷으로 저장이 돼야 하며, 그런 다음 우리를 위해서만 프로세싱 돼야 하며, 이러한 노력은 곧 서비스 사업자에게 더 많은 비용이 들어간다는 의미가 되기도 한다.

사용 가능한 제품 다수
다중 태그는 클라이언트 브라우저 관점에서 볼 때 과도해 보일 수도 있겠지만, 테스트 결과 이번 경우는 그렇지가 않다는 사실이 입증됐다. 글로벌하게 시추에이팅된 고메즈 GPN(Gomez GPN)과 라스트 마일(List Mile) 웹 성능 서비스를 이용함으로써(이들은 우리가 가용성과, 보다 중요하게는 인터넷과 사용자 데스크톱 사이에 있는 각각의 태그의 특정 다운로드 시간을 모니터링할 수 있게 해준다) 우리는 태그 오버헤드가 보통 1초 이하로 무시해도 좋을 수준이라는 사실을 발견했다.
보다 중요한 것은 정적 세그먼테이션과 다중 태그에 내포된 결과적인 비용이다. 우리 사이트는 예측할 수 있는 다양한 CPM 웹 세그먼트에 속해 있긴 하지만, 이것은 또한 예측 불가능한 세그먼트의 구성원이기도 하다. CPM 사이트로 간 방문객들이 예를 들어 기술이나 비즈니스 라인을 따라 검색하는 것도 자연스럽게 일어날 수 있는 일이다. 다중 웹 사이트에서 이것을 추적하기 위해서는 더 많은 세그먼트, 그리고 더 많은 고유 태그가 필요할 것이다. 이것은 웹 분석 서비스에 의해 수집되는 데이터의 양을 늘리며, 결과적으로 서비스 비용을 추가시킨다.
태그는 사이트를 세그먼팅하는 한 가지 방법에 불과하다. 테스트한 거의 모든 분석 서비스들은 URL과 디렉토리 스트럭처에 따른 세그먼팅 등을 제공했다. 하지만 사용자 행동이 결정되고, 이것이 적용되는 사이트가 라이브 CMP 사이트에서 한 테스트에서처럼 사후에 식별될 필요가 있을 때는 더욱 역동적인 세그먼테이션이 필요하다. 이를 위해서는 데이터베이스와 질의 메커니즘이 필요한데, 질의 메커니즘은 옴니추어(Omniture)의 사이트카탈리스트(SiteCatalyst)외에는 제공하는 게 없었다.
우리는 서비스를 테스트하긴 했지만, 사용 가능한 제품들도 많이 나와 있다. 어떤 쪽을 선택하느냐는 데이터의 양에 따라 결정하는 게 좋은데, 데이터의 양이 많을수록 서비스를 이용하는 비용이 늘어난다. 그리고 데이터 집약적인 곳에서는 제품을 돌리는 데 필요한 전문기술과 인프라를 내부에 보유하고 있을 가능성이 많다.
웹 프레즌스로부터 최대한을 끌어내는 데 자원을 전담시키려 노력하고 있다면 서비스가 금전적으로 갖는 한 가지 이점이 있는데, 그것은 곧 서비스 비용은 실질적인 돈으로 나가지만 내부 자원에 할당되는 시간의 양은 금전적으로 확실치 않은 경우가 많다는 점이다. 서비스는 자원을 정의 및 전담하며, 가능한 미래의 내부 자원 비용을 정당화할 수 있는 비용 기반을 만들어 준다. ‘X’에 대해 월 청구서를 받고 있고 내부적으로 ‘X-1’에 대한 작업을 할 수가 있다면 이 경우에 해당한다고 볼 수 있다.
하지만 명심해야 할 사실은 서비스 사업자들은 비용 공유를 기반으로 계속하기 때문에 서비스를 보다 저렴하게 운영하라는 압박을 계속 받을 것이다. 반면 서비스 사업자들은 하나로 전부를 만족시키는(one-size-fits-all) 방안을 택하려는 경향이 있기 때문에 이런 입장을 고수하려 한다. 보다 정밀한 제어를 원하고, 데이터 분석이 보다 경쟁력 있는 모습이길 바란다면 자체적으로 해결하는 편이 낫다.

슬라이스 앤 다이스 분석
데이터 보안과 프라이버시에 대한 염려는 보통 이런 서비스에서는 문제가 되지 않는다. 예외적으로 이메일과 게이티드 사이트(gated site)가 있는데, 여기서는 방문객의 신원이 특정 행동과 상호연관될 수가 있다. 이것은 크로스 및 레퍼런스 셀링(cross/refrence selling)을 허용해주는 고급 기능이라고 볼 수 있다. 하지만 이런 경우라 하더라도 데이터는 일반적인 사용자 행동을 파악하는 데만 이용된다.
예를 들어 지난 번 사이트를 방문했을 때 고객이 둥글게 파진 붉은 색 스웨터를 구입했고 노란 색 스웨터가 세일 중이라면, 그녀는 노란 색 스웨터 팝업창을 받을 만한 좋은 후보자가 된다. 그러나 이것은 그녀가 누구이기 때문이라서가 아니라 그녀가 이전에 구입한 물건 때문에 결정되는 것이다. 분명 이것은 논쟁의 여지가 있는 좋은 구분법이다. 결론적으로 말해, 자신들의 습성과 욕구에 대해 관찰당하는 게 걱정되는 사람들은 인터넷을 브라우징해서는 안 되며, 자신이 합의한 프라이버시 정책이 있는 게이티드 사이트만을 방문해야 한다.
이러한 종류의 자르고 다지기식(slice-and-dice) 분석은 대형 조직들용으로 이용되는 경향이 있다. 큰 회사들은 분석 결과를 요약해 이 데이터를 의미있는 것으로 만들 만한 역량을 보유하고 있을 가능성이 많기 때문이다. 테스트 결과 적절한 가격의 일부 서비스들과 수집된 데이터는 민첩한 작은 기업들이 내부 인프라를 구축할 필요 없이 보다 큰 규모의 경쟁자를 앞서도록 도와줄 수 있다는 사실이 입증됐다. 물론 분석 데이터를 이해하고 거기에 따라 행동할 수 있는 능력은 각자의 몫이다.

Executive Summary
웹 사이트 분석

만들어 놓으면 사람들이 올까? 이 경우 이것은 웹 사이트를 말하며, 인형을 팔고 있든, 롤 플레잉 게임을 할 사람을 모으든, 회사의 VCR을 어떻게 다루는지를 설명하고 있든, 혹은 인쇄 출판물을 보완하든 문제가 되지 않는다. 원하는 것을 얻지 못할 때 사람들은 몇 번의 클릭만으로 다른 곳으로 가버리기 때문이다.
웹 사이트 분석 기술이 필요한 것은 바로 이 때문이다. 서비스로 이용하거나 내부에서 돌릴 수 있는 제품으로든 이런 시스템들은 사이트 방문객들의 행동을 추적해서 앞으로의 행동을 예측하고 디자인의 효율성을 향상시킬 수 있게 해준다.
웹 인프라의 규모에 따라, 이런 제품이 가져다 줄 수 있는 정보의 양은 아주 많은 데서부터 감당하기 힘든 수준에까지 다양하다. 이러한 정보의 홍수를 쓸모 있는 데이터로 바꾸는 일은 당신과 엔드유저의 몫이다. 하지만 제2부에서 설명하다시피 보상은 충분히 그 모든 수고를 가치있게 만들어준다.
본사의 모회사인 COM 미디어는 새로운 웹 분석 서비스를 찾고 있기 때문에, 우리는 합동 리뷰를 기획했다. 그리고 IBM, 인텔리트랙커(Intellitracker), 맨티코어 테크놀로지(Manticore Technology), 넷아이큐 넷레이팅즈(NetIQ NetRatings), 옴니추어(Omniture), 씽크메트릭스(ThinkMetrics), 와치파이어(Watchfire), 웹애버커스(WebAbacus) 및 웹사이드스토리(WebSideStory) 등의 서비스에 대해 언제나 하는 인원으로 리얼월드 랩 테스트를 실시했다. 게다가 CMP 웹 분석 매니저인 에밀리 선더맨과 그녀의 직원이 CMP 필요조건을 맞춰주고 테스트를 도와줬으며, 업체들과 만나고 우리에게 얼마간의 실제 엔드유저를 제공해 줬다. 우리는 COM 라이브 웹 사이트에서 10개 서비스를 모두 테스트했으며, 전사적인 솔루션을 구입하는 데 이용되고 있는 필요조건을 적용시켰다.
제2부에는 우리는 선더맨과 우리 팀의 서비스 분석 결과를 담았다. 서비스 결과는 전체적으로 만족할 만한 수준이었다. 우승을 차지한 옴니추어의 사이트카탈리스트는 간발의 차로 웹사이드스토리의 HBX 온디맨드 웹 애널리스틱스를 앞섰는데, 넷아이큐의 웹트렌즈나 IBM의 서프에이드와 마찬가지로 두 가지 모두 누구든 우선으로 고려해 보아야 할 서비스들이라고 생각된다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.