מהן הבעיות הדיפולטיביות של גוגל אנליטיקס? כיצד ניתן לפתור אותן, ולמה זה חשוב?

   דניאל לוין  |  ספטמבר 2019
בעידן הדיגיטלי-המדיד, החשיבות של מהימנות (איכות) ה – Data וקצב גידול ה – Data (כמות), מהווים אינדיקציה להיותו של הארגון Data Driven. החשיבות של שפה אוניברסלית עם הגדרות ברורות לכל מונח מהוות אבן בסיס לתקשורת פנים וחוץ ארגונית, אך מעל לכל, האמונה שה – Data מדויק ומסונכרן עם כל שאר המערכות, הוא שנותן את היכולת האמיתית לעסוק באופטימיזציה של מאמצי השיווק השונים, ומאפשר ללמוד היכן כדאי להשקיע את השקל הבא. מתיוג הקלטה של User בודד ב-HotJar, דרך אופטימיזציה של מסע הגולש ברמת ה-Multi-Channel Funnel, ועד ליצירת Data Warehouse שמאפשר Remarketing פרסונלי ו – BI ברמה אחרת – החשיבות של כמות גדולה של מידע אמין אשר אפשר להסתמך עליו בניתוח של פעילות שיווק קיימת או בניבוי התוצאות של מהלכי שיווק פוטנציאליים עתידיים, היא נקודת שיווי משקל בדרך להצלחה.

להלן מספר בעיות נפוצות (וקריטיות) שאנחנו מזמינים אתכם לבדוק גם בחשבונות שלכם:

זמני שהייה:

כולנו כבר התרגלנו לחזור על המנטרה: "תטייבו את ה – Remarketing ושימו Bid גבוה יותר למי ששהה מעל לדקה בעמוד".
על הנייר, כמובן שמדובר מהלך נכון – אך האם ידעתם שזמן השהייה של User שהגיע לעמוד נחיתה ונטש אותו כעבור מספר דקות, ייספר כזמן שהייה "0"?
גם אם ה-User גלל עד לתחתית העמוד, קרא בשקיקה כל מילה ומילה ואפילו שהה 25 דקות בעמוד הנחיתה – בעיני Google Analytics, זמן השהייה שלו יעמוד על 0 דקות.

למה בעצם הדבר מתרחש?

בשונה מהאופן שבו אנחנו חווים זמן, ב – Google Analytics הזמן מחושב בין הקריאות השונות לשרתי ה -Analytics; כלומר, אם User מסוים הגיע לעמוד הנחיתה ולא ביצע בו שום פעולה אקטיבית (Hit) מוגדרת (Page View או Event) שה – Analytics "מקליט", לא תתבצע קריאה לשרת שמאפשרת למערכת להבין כמה זמן חלף בפועל בין הקריאות. למעשה, בכל פעם שמשתמש נוטש עמוד בו ביקר (Bounce), זמן השהייה יראה "0 דקות" – זאת מכיוון שלא התבצעה קריאה שנייה ממנה ניתן "לגזור" את הזמן.

לא מדובר בתקלה, אלא פשוט מדובר על האופן בו מתבצע חישוב הזמנים במערכת של Google Analytics.
בכלל, כאשר בוחנים עמוד נחיתה שמטרתו היא איסוף לידים, זמן השהייה בכל עמוד ישוכלל לפי כמות היוזרים שלא המירו אשר זמן השהייה שלהם עומד על אפס דקות, פלוס כמות היוזרים שהמירו שזמן השהייה שלהם היה כנראה בטווח הסביר.

הבעיה במקרה זה היא הממוצע (שעליו בדר"כ מסתכלים מנהלי הקמפיינים שעוסקים במלאכת האופטימיזציה):
שורת הסיכום באנליטיקס תראה זמן שהייה נמוך מאוד (בדרך כלל כמה שניות בודדות); ובפעילות שבתחילתה אין הרבה המרות, הדבר עלול להוביל לטעות בחישוב ולגרום לנו לתעדף מקורות תנועה שרק נראים איכותיים יותר.


דוגמא:

היכנסו למסך הבא בחשבון האנליטיקס שלכם:

Behavior > Site Content > Landing pages

לאחר מכן, נסו את ה-Segment הבא בחשבונות האנליטיקס שלכם (שימו לב לזמני השהייה אחרי הפעלת הסגמנט):

 

אז מה הפיתרון?

על מנת שזמני השהייה יחושבו באופן מדויק, יש לשלוח בכל כמה שניות Event שיהווה קריאה לשרתי גוגל אנליטיקס, זאת על מנת שנוכל לקבל את זמני השהייה האמיתיים של היוזרים שגלשו באתר.

 

זמני טעינת עמוד:

באופן דיפולטיבי, איסוף המידע על טעינת עמודים באנליטיקס מוגדר על דגימה של 1% בלבד מסך כל התנועה לאתר; מסיבה זו, כאשר בוחנים את המסך החשוב של זמני טעינת עמודים, אנחנו עלולים להגיע למסקנות מוטעות שאינן תואמות לכלי מדידה אחרים.
על מנת שנוכל לקבל את מלוא ה-Data האפשרי על זמני טעינת עמודי האתר, יש צורך העלאת אחוזי הדגימה ל-100%.

 

איך עושים את זה?

הפתרון די פשוט למעשה, ומצריך בסך הכל שינוי תצורה/ קינפוג ב-GTM (גוגל טאג מנג'ר) אותו ניתן לבצע בקלילות:

 

** חשוב לציין שישנם מספר מקרי קצה (כמה קודי מעקב באתר, Single Page Application עם Virtual PV, ומספר טאגים שיושבים על הטריגר של ה-PV), בהם יהיה צורך לבצע מספר התאמות נוספות.
למי שיש בעיה קונקרטית בנושא – מוזמנים לפנות אלינו, נשמח לעזור ולעמוד לשירותכם 😊

 

אי הפעלת פיצ'רים בסיסיים וחשובים:

במערכת מורכבת כמו גוגל אנליטיקס, קיימים מספר פיצ'רים משמעותיים וחשובים שכדאי ורצוי להפעיל כדי לקבל את מלוא המידע שהמערכת מסוגלת להציע.

מצורפות מספר דוגמאות, מהן רוב האנשים נוטים להתעלם:

 

חיפוש באתר:

היכולת של אנליטיקס לסגמנט חיפושים שמתרחשים בתוך האתר היא לא פחות ממדהימה. עבודה עם נתוני החיפוש הפנימיים של האתר (Internal Site Search Data) מאפשרת, בין היתר, זיהוי עמודים חלשים באתר – כאשר ניתוח פשוט של העמודים מהם מתבצע חיפוש יכול להעיד על דפים חלשים שלא מספקים מענה למידע שהיוזר חיפש (תוכן ספציפי, שירות ספציפי וכדומה).
בנוסף, מסקנות ממעקב מתמשך אחר נתוני חיפוש באתר יכולות להעיד על טרנדים שניתן למנף. באופן כללי, ניתוח החיפושים באתר מעיד על מה שמעניין את היוזרים ויכול להוביל לשיפור משמעותי בחוויית המשתמש.

העלאת *כל* נתוני ה-Performance של ערוצי השיווק הדיגיטליים לאנליטיקס:

ב-Eco-System של האנליטיקס, ניתן לראות את מקורות התנועה של כל הסשנים, וזו התחלה טובה כאשר מנסים להבין איך ערוץ מדיה אחד משפיע על ערוץ מדיה אחר, ואיך עובדת הסינרגיה ביניהם. עם זאת, ללא נתוני הפלטפורמות (Cost, Impressions, Clicks וכדומה) בתוך המסך של ה-Attribution, לא יהיה אפשר למדוד את הרווחיות של כל ערוץ בנפרד, כאשר מנסים לפלטר/ לבודד מקור יחיד באמצעות Attribution. בשלב הזה של אבולוציית השיווק הדיגיטלי, ביצוע ניתוחי קרדיטיזציית המרות ב – MCF הפך לאופטימיזציה שגרתית; כאשר בדיקות כמו מדידת ההשפעה של פעילות Push על ה – Search וקמפייני המותג בפרט הם דוגמא נהדרת.
יחד עם זאת, נראה שמעט מאוד ארגונים עושים את המאמץ של חיבור נתוני ערוצי Performance הלא "גוגליים" לאנליטיקס (כרגע רק פלטפורמות של גוגל מתממשקות לאנליטיקס בצורה מלאה). כמובן שהמשמעות עצומה – יצירת מרכז מידע מאוחד, שגם יכול להתממשק ולהעשיר את מערכות המידע הארגוניות.

הגדרת פילטרים:

לא פעם אנו נתקלים בדאטה מזוהם באנליטיקס.
לפעמים המידע הושחת עד לרמה כזו שכמעט בלתי אפשרי להפריד בין טסטים ובאגים לבין הדאטה האמיתי; כאשר במקרים קיצוניים במיוחד, זה מגיע לרמה כזו שאי אפשר להסתכל על הנתונים כמצע ללקיחת החלטות (בעקבות אי דיוקים) וכפועל יוצא – לנתח אותם.
מסיבה זו, חשוב להקפיד לסנן החוצה מידע לא רלוונטי ולהקפיד על כך, מכיוון שאי אפשר למחוק מידע שכבר התקבל לתוך מערכת האנליטיקס.
כמובן שישנן בעיות קטנות יותר כמו ערכים כפולים בשל אותיות קטנות-גדולות שמאיימות על טוהר הדאטה, אבל בעבודה נכונה עם פילטרים, ניתן לצמצם את מרחב הטעות למינימום.

מספר דוגמאות לפילטרים שימושיים:

  • איחוד בין אותיות קטנות וגדולות באנליטיקס (פעמים רבות מנהלי קמפיינים לא שומרים על אחידות בשמות הקמפיינים, דבר שעלול להוביל לשיבוש נתונים עתידי).
  • URL מלא שכולל גם את שם הדומיין / סאבדומיין (Hostname) – חשוב במיוחד לחברות עם מספר נכסים דיגיטליים שמאוחדים תחת חשבון אנליטיקס אחד עם Cross Domain.
  • סינון תנועה ממשרדי הארגון או מחברת הפיתוח.
  • סינון תנועת Test ב-Main View.


סעיף נוסף וחשוב לאתרי איקומרס:

Enhanced E-commerce מלא – המשמעות של הטמעת הפיצ'ר הזה של אנליטיקס היא, בעצם, מערך דיווח מלא על כל פעילות האיקומרס.
במקרים רבים, בשל קושי באפיון ויישום ההטמעה, קורים מצבים בהם רק חלק מהחיוויים משדרים נתונים (לרוב זונחים את החלק של צפייה והקלקה על רשימות מוצרים ובאנרים).
היעדר הדאטה לא מאפשר אופטימיזציה בסיסית, אשר לה השפעה עצומה וניכרת על תוצאות מאמצי השיווק. ללא הטמעה מלאה, לא נוכל לדעת (בין היתר):

  • כיצד באנרים שונים בתוך האתר משפיעים על הניווט למוצר המקודם.
  • רשימות שונות של מוצרים משפיעות על היקף המכירות של המוצרים הללו.

כמובן שישנן עוד דוגמאות לשימוש בדאטה לטובת אופטימיזציה. על מנת להיות ברורים, נדגיש:
החשיבות של הטמעה מלאה ומדויקת של Enhanced E-commerce היא לא פחות מעצומה –
מעבר לשיפור הביצועים, קיים ערך עצום במדידה מסוג זה למטרת למידת והבנת הקהל בצורה עמוקה ככל הניתן.

 

לסיכום, המהות של גוגל אנליטיקס היא לייצר אמת; אמת שארגון יכול להישען עליה בקבלת החלטות מושכלות, שמבוססות על דאטה.
כאשר חשבון אנליטיקס לא מוגדר היטב והארגון לא מבין את ההגדרות של המושגים, אך בכל זאת מקבל על בסיסן החלטות – באופן טבעי, התוצאות לא ימהרו להגיע.

ולכן, הנחת נושא המדידה והטכנולוגיה במרכז יכולה להיות משימה מורכבת – ההתחייבות לעלויות שוטפות לצד אתגרים טכנולוגיים (שלא תמיד קל לפצח) וריבוי המשאבים (כדוגמת זמן, מורל ארגוני, וכמובן כאב הראש של ההתעסקות עצמה) אשר מושקעים בעיקר בתהליך הקמת תשתית המדידה, הופכים את הדיגיטליזציה לתהליך מכאיב ולא קל עבור ארגונים רבים.

יחד עם זאת ובאותה נשימה, נוסיף ונאמר כי גלום פוטנציאל רב גם בעולם ה-Online מבחינת סקיילביליות ושיפור היעילות (שיווקית ותפעולית).

כיום, ארגונים משקיעים המון בשיווק ובמדיה בפרט, אך כאמור – ללא מערך דיווח מדויק, לא ניתן לייעל את תקציבי השיווק ולאחר מכן לעבוד על הגדלת ה – "עוגה".
התקנה/Setup ותחזוקה שוטפת אצל גוף מקצועי הנה ההשקעה הטובה (וההכרחית) ביותר מבחינת ROI.