היינו בכנס Google Webmaster – ואספנו בשבילכם כמה דברים שחשוב לדעת!

   שלום זפרני |  דצמבר 2019
על מה דיברו שם: האופן בו ב – Google תופסים את עולם האינטרנט ואת עתידו, ובעקבות כך – העקרונות עליהם הם שמים דגש. מי היו שם: אנשי SEO, מנהלי ובעלי אתרים, מפתחים, מנהלי מוצר ועוד שמנתו וסלתו של עולם הדיגיטל הישראלי, שבאו להקשיב לאנשי הדיגיטל מהטובים בעולם – ג'ון מולר, אנדרה ניומן, דניאל ווייסברג ועוד. אז הנה לכם כמה Bits&Pieces חשובות מפי הדוברים – בגרסה המורחבת:

לגבי SEO באופן כללי:

בשורה התחתונה, ל-SEO יש עתיד. סקפטיים?

ובכן, גוגל – לטענת אחד מיקיריו המקצועיים של עולם ה – SEO, ולא בכדי – עושים מאמץ דיי ניכר לנהל תקשורת בריאה יותר עם עולם ה – SEO.

ולכן, הפרשנות שאנחנו מציעים לכיוון הזה היא – לאחר תקופה ארוכה של נתק ברמה זו או אחרת, חלחלה בגוגל ההבנה כי אנשי ה -SEO לא רק עושים מניפולציות, וכי שיתוף מידע יעזור לנו לעזור להם לעשות – תחזיקו חזק – מעין רגולציה לאינטרנט.

 

לגבי JavaScript ו-SEO טכני:

  • Technical SEO is CRITICAL: זאת על אף ואולי בזכות השיפור של גוגל מבחינת התגברות על סוגיות טכניות רבות (JS, פגינציה וכדומה). מצד אחד, זה ברור; אך מצד שני, זה מאבק שלרוב מוותרים עליו מול לקוחות. הסיבה היא פשוטה – מדובר במאבק קשה לכל הצדדים אשר לרוב לא נושא בחובו שיפורים שברורים ללקוח; וכן דורש זמן, משאבים, פיתוח ועוד.

 

  • בנוסף, דובר על "הנוסחה" הנכונה לתקציב זחילה, והיא:Crawl Demand VS Capacity VS Necessity
    Demand = Better websites.
    Capacity = Good: Fast Website, few errors; Bad: Slow Response, 5xx errors.
    Necessity = The less URLs, the better.

 

  • בהקשר זה הם מחזקים את האמרה כי ככל שיש יותר דרישה למשאבי מחשוב (High CPU Usage), גוגל ינטה לצאת מהר יותר מן העמוד.
    ההשלכה הברורה: יציאה מהעמוד בטרם סיום הסריקה, וכן סריקה חלקית בלבד של התוכן בדף. בהמשך לכך, הוא גם הדגיש – מודעות רבות מייצרות צריכה גבוהה של משאבי מחשוב. אנחנו בטוחים שלרבים מכם יש דוגמאות טובות לעניין.

 

  • GoogleBot לא עוקב אחר הנחיות Caching (פרקטיקה של שמירת קבצים ותכנים במטמון של האתר, במטרה להגישם מהר יותר ללקוחות). המשמעות היא, כי אם השרת של האתר שומר תוכן מסויים ב-Cache כדי להגיש אותו מהר יותר ללקוח – גוגל לא מתייחס לזה. הוא יתייחס בשלב הראשוני רק לתוכן שקיים בקובץ ה-HTML הראשוני, ולתוכן שהאתר מציג לגולשים. 
    העניין הזה קריטי להבנה מבחינת האלמנט של יעילות זחילה – כיוון שבעוד זה מקל על טעינה של הגולשים (מעולה), על גוגל זה לא מקל. כלומר, זה לא פתרון ליעילות, לפחות מהצד של תקציב זחילה.

 

  • JavaScript: Are You Late to the Party? כפי שגוגל כבר הבינו ואף התחילו לפעול בהתאם – Java Script פה להישאר; כאשר כל מה שאנחנו יודעים על SEO טכני רלוונטי גם לכל מה שקשור ל-JS.
    כידוע, גוגל יודעים לקרוא ולהבין JS כבר זמן מה, ועם המעבר ל-GoogleBot Evergreen הם תמיד יהיו מעודכנים לטכנולוגיה החדשה. הקושי מצוי, כאמור, ביעילות הזחילה של תכנים אלו. כמה נתונים מעניינים שהם שיתפו בהקשר זה –
    לטענתם, כ – 50% מהעמודים באינטרנט עוברים רינדור תוך מספר שניות בלבד; כאשר 90% מהעמודים באינטרנט עוברים רינדור תוך כמה דקות. לגבי כל השאר – הגוגל יודע.

 

  • עוד אלמנט שקשור ליעילות בהקשר של JS – אחת הסיבות ש – JS אינו אידיאלי מבחינת זחילה וסריקה, היא העובדה שכאשר הבוט הזוחל צריך לעשות Fetch לעמוד [מכיוון שמדובר בממוצע ב-60 יותר בקשות (Requests)] התהליך לוקח פי 20 יותר זמן. יחד עם זאת, לטענתם, הם הופכים למהירים יותר ויותר עם כל יום.

 

  • לטענת אחד מדוברי הכנס המרכזיים, רוב האתרים בעולם (50% עוד ב – 2018) עברו ל-Mobile First Index; כאשר החל מה – 2019, כלל האתרים החדשים מאונדקסים מראש כבר דרך גרסאות המובייל שלהם. ולכן, אם האתר שלכם עוד לא עבר ל-MFI – שווה לבדוק למה.

 

  • בנוסף, לקינוח – גוגל ממליצים בחום לעבור למובייל רספונסיבי, ולא לגרסת m.dot. זאת מטעמים ברורים של חיסכון בתקציב זחילה, בעיות אינדוקס אפשריות, מערכות יחסים מורכבות אשר לעתים אינן מוגדרות על הצד הטוב ביותר, אי-תאימות באופטימיזציה ועוד.

 

חיפוש מאובטח:

 

  • חוויה בטוחה – אתר בטוח. חיבור בטוח. משתמשים מוגנים. אלו דברים שגוגל לוקח בכובד ראש. אתר שמזלזל בבטיחות הגולשים שלו, יאבד אותם. חלק נכבד מההרצאה בכנס עסק בעניין הזה.

 

  • האקרים תוקפים את החולייה החלשה ביותר באתר. לכן, הגישה לגבי בטיחות האתר צריכה להיות הוליסטית וקפדנית. אנלוגיה/מטאפורה שאפשר להתחבר עליה בנושא הזה היא הדימוי של האינטרנט לרחוב – פורץ יעבור בית/בית ויחפש דלת לא נעולה. לא אכפת לו באיזה בית מדובר – הוא רק רוצה לפרוץ.

 

  • אותו העיקרון לגבי אתרים. להאקר לא אכפת לאיזה אתר יפרוץ – הוא יקבל פרטי גולשים בכל אתר, והוא מחפש את האתר עם הפרצה הגדולה ביותר. המשמעות היא, בעצם, כי כל אתר הוא בעל פוטנציאל פריצה. איתר אתר "קטן מדי" לצורך העניין, ומבחינת הצורך בביטחון – דין אתר קטן כגדול. לכן צריך להגן על האתר כל הזמן, ומכל זווית – כאשר רוב הפרצות מגיעות מתוכנות צד שלישי.

 

  • ולקינוח של הנושא הזה – מסתבר כי הפניות JS הן פחות בטוחות מהפניות HTTP.

 

 

מהירות:

 

  • מהירות זה אחד הדברים הכי חשובים שאתר צריך לדאוג אליהם. אתרים איטיים ידעכו.
  • AMP מומלץ בהתאם לסוג האתרים – לא מתפקד כגורם דירוג. אין בעיה לעבור ל-AMP ע"י שימוש ב-Plugins ייעודיים לכך.
  • מהירות כגורם דירוג מתבצעת על ידי שילוב של Field Data (מה שהם מקבלים מהדיווח חוויית משתמשים של הכרום – הידוע כ-Chrome User Experience) ו-Lab Data (בדיקות סימולציה של מהירות כמו ה-Lighthouse + נתוני זחילה).
  • תקציב זחילה מושפע מהמהירות שלוקח לגוגל לעשות Fetch לעמוד (מהירות תגובה ראשונית + מהירות שרתים), לא למהירות טעינה מלאה.

 

גוגל תמונות:

 

  • התמונות חייבות להיות באיכות גבוהה, ומקוריות.
  • דברים שמוזנחים וחשובים מאוד לדירוג בגוגל תמונות: תגיות ALT, שמות הקבצים עצמם (שימו לב, מנהלי אתרים שנותנים לקובץ שם dfhsdkf.jpg); וגם: תגיות H!
    לטענת אחת מאושיות הכנס, תגיות H הן קריטיות להבנת המקום של התמונה בהיררכיית התוכן בעמוד; כלומר – תגיות H הן ממש לא רק למטרות עיצוב.
  • לדוגמה: תמונה אשר מופיעה בראש העמוד או מתחת לכותרת, היא בעלת פוטנציאל דירוג גבוה יותר מתמונה הנמצאת בתחתית העמוד. תגיות ה – H עוזרות למנוע החיפוש להבין את ההיררכיה הזו; כאשר התמונות חייבות להיות חלק בעל חשיבות בעמוד, ובעלות בולטות גבוהה / חלק אינטגרלי מהתוכן בעמוד. ככל שהן ייתפסו כקריטיות יותר בעמוד, כך הסיכוי שידורגו יגדל.
  • עוד כמה מילים על תגיות H, מטעמנו:
    התפקיד הרשמי של תגיות H הוא הגדרת ההיררכיה והמבנה של התוכן בעמוד. בעקבות כך, אם תמונה נמצאת תחת חלק היררכי שמתוייג, למשל, באמצעות תגית H2 – הסיכוי שידורג גדול יותר מאשר חלק היררכי המתוייג תחת H4.
    לפרשנותנו את הנאמר בכנס, נדמה כי גוגל רומזים לכך שהם מצפים מתמונות חשובות לשבת תחת תגיות היררכיה שבין H1 ל-H3. תמונות שנמצאות תחת תיוג היררכי של H4 ל-H6 הן, כנראה, בעלות פוטנציאל דירוג נמוך בהרבה, עד לא קיים.
    פעמים רבות, השימוש בתמונות נעשה באופן שגוי, אשר לא לוקח בחשבון היררככיה של תוכן, אלא נלקח מתוך התחשבות במניעים עיצוביים בלבד – בעיקר גדלי פונט (בין היתר משום שאתר נבנה קודם כל מתוך מחשבה על הקו העיצובי שלו ועל קלות הפיתוח; וכן כי זה מסוג התגיות שמגדירים באופן רחב מאוד). באופן כללי, אנחנו מעדיפים להסתכל על זה ככה:
    תמונה: סדר נכון של תגיות H
  • ולא ככה (שימוש נפוץ יותר):תמונה: סדר לא נכון ופחות נפוץ של תגיות H 

לסיכום הנקודה – בדומה ל – H1, שהוא גורם דירוג של הכותרת המופיעה בו בעקבות ההבנה שבולטות היא מרכיב חשוב בהבנה של חשיבות תוכן – כך גם לגמרי תמונות.

 

גוגל Discover

 

  • לטענת אחד מדוברי הכנס המרכזיים, קשה מאוד להיכנס לאינדקס של Discover. אך נקודה שחשוב להבין לגבי Discover היא, כי זה לא תלוי מילות חיפוש (הגיוני, כי לא מחפשים שום דבר). כלומר – מה שמנצח פה זה רלוונטיות, מהירות וחוזקת השיוך הנושאי.

 

דברים שנעלמו מן העולם השנה:

 

  • הידעתם? גוגל לא תומך יותר ב-Flash.
  • תגיות פגינציה (rel=prev, rel=next) כבר לא הכרחיות לגוגל – אמנם Old News, אבל הודיעו על כך "רשמית" רק השנה.
  • יחד עם זאת, עדיין יש צורך ביכולתו של גוגל לזחול את העמודים לפי URL ייחודי, נקי ככל האפשר מפרמטרים ומקושר באופן טבעי (מתייחס ל-Infinite Scroll/JS וכדומה).
  • הנחיות noindex דרך קובץ ה-robots.txt
  • התגית rel=nofollow הפכה להיות רמז, ולא הנחיה. לטענתם, השימוש בו היה שגוי ברוב המקרים. מה דעתכם?
  • הסירו שני search operators – את link: ו- info:

דברים שבאו/יבואו לעולם השנה:

  • תגיות rel=sponsored/ugc – כתחליף להפיכת התגית rel=nofollow לרמז, הם מספקים אפשרות נוספת לרמוז להם על סוג הקישור, במקום לשים nofollow.
  • Favicons – ביטוי של לוגו האתר בתוצאות החיפוש של גוגל. קיים גם כלשוניות שרואים בדפדפן. דוגמה:תמונה: תוצאות חיפוש מטושטשות עם חצים אדומים המצביעים על דימוי לוגו לידו כתוב "הורד אפליקציה חינם"

 

  • התהליך הוא פשוט – מעלים את התמונה הרצויה לתיקיית השורש ומוסיפים את התגית הבאה באיזור ה-head של העמוד:

 

  • אמנם זה עדיין לא פה, אבל טענה נוספת שעלתה בכנס היא כי בקרוב גוגל יכריזו על גרסה סטנדרטית לקבצי robots.txt.

 

  • Data-nosnippet – בנוסף לתגית המטא רובוטס nosnippet המגדירה לגוגל לא לייצר סניפט מכל העמוד, לקראת סוף 2019 (מתי בדיוק הם לא אומרים, אבל השעון מתקתק) גוגל יאפשרו לבחור אלמנטים ספציפיים בתוך עמודים שנוכל להגדיר לגוגל שלא להציג אותם ב-featured snippet.

 

  • פיצ'ר חדש ב-GSC, אשר יציג הודעות חשובות לגבי האתר בתוך הפלטפורמה עצמה ולא רק באינבוקס – נכון, המידע על הפיצ'ר הזה הוא כללי כרגע, אז נאלץ לחכות עד שייצא רשמית ויהיה ברור יותר.

 

 

סטטוס קאנוני של עמוד:

 

לסיכום, נושא שלדעתנו מספיק חשוב כדי לחתום את הדיון בחוויות המקצועיות שלנו מהכנס – לטענת אחד מדוברי הכנס הבכירים, יש כמה אלמנטים שגוגל לוקחים בחשבון על מנת להחליט מהו הסטטוס הקאנוני של עמוד (מלבד, כלומר, תגית קנוניקל בלבד; אשר, כידוע, היא משמעותית – אך משמשת בעיקר כהמלצה לגוגל):

 

  • תגית קנוניקל

  • הפניות

  • כמות/ איכות הקישורים הפנימיים המקשרים לעמוד

  • קיום העמוד במפת האתר

  • תגיות hreflang המצביעות על העמוד

  • שימוש ב-URLים נקיים (נושא הנוטה להתעלמות) – משמע, URLים עם פרמטרים ופילטורים רבים בעלי סבירות נמוכה יותר להיחשב כקאנוניים

  • קיום על גבי גרסה מאובטחת

 

גם אתם הייתם בכנס? יש לכם תובנות? שאלות על הנקודות שהעלינו פה? שתפו אותנו!