מפגשי ה- Google Webmaster Hangout אלו הן שיחות וידאו שבהן גורם בכיר בגוגל משוחח על נושאים הקשורים למנהלי אתרים ומקדמי אתרים ובכל פעם קבוצה של 100 איש יכולים להצטרף לשסן, ולשאול שאלות שקשורות לקידום אתרים. במאמר זה התייחסתי לכל השאלות שבעלי אתרים הפנו אל ג’ון מולר, והצגתי את תובנותיו בצורה תמציתית ומרוכזת. התאמצתי בשבילכם וגם הוספתי הפניות למקורות רלוונטיים. כל הקישורים נפתחים בלשונית נפרדת כדי שיהיה לכם נוח להמשיך לקרוא.

 

חוסר עקביות בהתראות הכלי לבדיקת מהירות של גוגל (PSI)

צוות ה- ‘PageSpeed Insights’ של גוגל מנסה לשמור על בדיקות יציבות עבור אתרי אינטרנט, לכן אם האתר שלכם נע על הגבול הדק בין קבלת התראות לבין מעבר תקין של הבדיקות, הדבר מעיד על כך שהאתר נמצא ממש בקצה דרישות המהירות של Google. ואולי ההמלצה של מולר כאן היא להתחיל לטפל בבעיות המאטות את האתר שלכם (כלים טובים לבדיקת מהירות מיד מתחת לסרטון).

 

הגרסה האחרונה של הכלי של גוגל לבדיקת מהירות משתמשת בנתונים הלקוחים מתוסף הכרום Lighthouse

הגרסה החדשה של PageSpeed Insights עושה שימוש בנתונים של תוסף דפדפן הכרום Lighthouse תוך הצלבת נתונים ממכשירים שונים.

התייחסו לעמודי תגיות ככל עמוד רגיל אחר באתר

ג’ון מולר ממליץ לטפל בדפי תגיות כמו כל דף אחר באתר שלכם ולהבדיל בין דפי תגיות שימושיים לדפי תגיות באיכות נמוכה, על ידי שימוש ב noindex בעמודי תגיות שאינם איכותיים דיים בעיניכם

 

בצעו אופטימיזציה עבור רלוונטיות ולא עבור פקטורים של דירוג

הימנע מהתמקדות בגורמי דירוג ובמקום זאת התמקדו באסטרטגיה ארוכת הטווח של גוגל, שהיא להציג אתרים מצוינים ורלוונטיים למשתמשים.

 

הדו”ח המפרט על עמודים ש”נמצאו על-ידי גוגל אך לא אונדקסו” – אין לו שום קשר לזחילה ולאינדוקס

גוגל יודעת על עמודים שהוגדרו בדו”ח בסרץ קונסול כ- ‘Discovered – currently not indexed’, אך לא תעדפה את העמודים הללו עבור זחילה ואינדוקס. זה קורה לרוב בעקבות בעיות בקישורים פנימיים ותוכן משוכפל.

 

בדקו כיצד מנועי חיפוש מסוגלים לזחול קישורים פנימיים על-ידי כלים לזחילה

ג’ון מולר ממליץ להשתמש בכלים כמו DeepCrawl כדי לבדוק כיצד הקישורים הפנימיים שלכם מוגדרים ואם יש בעיות טכניות אשר מונעות מ- Googlebot לסרוק דפים מסוימים באתר שלכם.

  • בגרסה האחרונה של סקרימינג פרוג שחררו פיצ’ר חדש המאפשר לכם לצפות בכל ההיררכיה הפנימית והקישורים הפנימיים שלכם בצורה של בועות – קפצו לפרק #7 בקישור הזה

השתייכות לארגונים כמו כמו Trust Project עשויה לשפר באופן משמעותי את הדירוגים

ההשתייכות לארגונים כמו ‘פרויקט האמון‘ לא תהיה לה השפעה ישירה על הדירוגים, אך זה כן עשוי להשפיע באופן עקיף על הדירוגים, שכן המשתמשים סומכים עליהם ומעריכים את התוכן שלהם יותר.

הכלי של גוגל Fetch & Render בסרץ’ קונסול אינו משקף רינדור (תיצוג) אמיתי

קבלת התראות ‘temporarily unreachable’ בכלי של גוגל בסרץ’ קונסול Fetch & Render – אינו משקף כיצד גוגל מרנדרת תוכן עבור האינדקס שלה. הכלי של גוגל לתיצוג (רינדור) – יש לו זמני הפסקה הארוכים יותר (longer cutoff time) והוא עושה שימוש בקאשינג (uses caching).

 

 

מזגו קבצי CSS, JS וכתובות מעקב נפרדות, על מנת להגדיל את בקשות ה- Googlebot מהשרתים שלכם

כדי לשפר את מהירות האתר ולאפשר ל- Googlebot לשלוח בקשות לשרת לעתים תכופות יותר, יש להפחית את מספר הכתובות החיצוניות (external URLs) שיש לטעון. לדוגמה, יש לשלב קובצי CSS לכתובת אתר אחת, או למינימום כתובות שאתם יכולים.

עמודים עם זמני הורדה ארוכים מפחיתים את תקציב הזחילה של Googlebot

אם דף צורך הורדה ארוכה מידי הדבר ינצל את תקציב הסריקה של Googlebot, כלומר גוגל תקצה פחות זמן לסריקת דפים אחרים באתר שלכם. בחנו את דו”ח ‘time spent downloading a page’ בסרץ’ קונסול על מנת לאתר בעיות כאלה.

 

השתמשו בקישורים פנימיים לחיזוק תוכן עונתי כדי לעזור לגוגל לאנדקס אותו

פרסמו תוכן עונתי מספיק זמן מראש כדי שגוגל תוסיף אותו לאינדקס בתקופה הנדרשת, וגם השתמשו בקישורים פנימיים כדי שגוגל תדע שהדפים האלה חשובים ורלוונטיים למשתמשים, וזה בתורו ישפר את האינדוקס של אותו תוכן עונתי.

השתמשו בכתובת אחת עבור כל התוכן העונתי

ג’ון מולר ממליץ להשתמש בכתובת אתר אחת שתכיל את כל התוכן העונתי שלכם, ללא קשר לנושא. לדוגמה, במידה שיש תוכן על Thanksgiving בדף, לאחר מכן החליפו אותו בתוכן על Christmas. דבר זה יגרום לכך שהכתובת תצבור “הון קישורי” (link equity), מה שיהפוך את הדף לחשוב יותר בעיני גוגל.

 

הנחיות האיכות למדרגים ומומחיות, סמכות ואמינות (EAT) – לא משפיעים באופן ישיר על דירוגים

מומחיות, סמכות ואמינות (EAT) וגם Quality Rater Guidelines – מראים לאן פניה של גוגל מופנות בעתיד במתן תוכן טוב יותר עבור משתמשיה, אבל אין אלו פקטורים המשפיעים באופן ישיר על דירוגי האתרים שלכם.

 

אימוץ נתונים מובנים שאינם נתמכים בשלב הזה שאינם עשוי להשפיע על תמיכתה באלו בעתיד

אם גוגל תראה שאתרים רבים משתמשים ב- markup מסוים, על אף שהסכמות/המאפיינים/היישויות הללו לא נתמכים בשלב הזה, זה עשוי לגרום לגוגל לתמוך ב- markup הזה בעתיד.

מידי פעם בעלי אתרים שואלים אותי, האם שווה להם להשקיע בישראל בסכמות שעדיין גוגל לא נותנת להם שום ניראות בעמוד תוצאות החיפוש, ואני תמיד אמרתי את אותה תשובה: “עכשיו לא, אבל אם זה כבר מופיע בעמוד תוצאות החיפוש במדינות אחרות – זה יופיע בהמשך ככל הנראה גם בישראל”.

  • Schema.org היא פעילות קהילתית שיתופית, שמטרתה ליצור, לתחזק ולקדם סכימות לנתונים מובנים באינטרנט, בדפי אינטרנט, בהודעות דוא”ל ומעבר לכך.”

 

הפחיתו את השימוש בהורדות ייחודיות אם אתם רואים התראת ‘uncommon downloads’ בסרץ’ קונסול

התראת האבטחה ‘uncommon downloads’ בסרץ’ קונסול עשויה להיגרם באתרים בהם יש הורדות ייחודיות עבור כל משתמש (unique downloads per user). הפחיתו את מספר ההורדות על מנת ש- Googlebot יוכל לבדוק אותם בקלות לפני שמשתמשים מנסים לגשת אליהם.

תוכנה זדונית יכולה להיות מוגשת באתר שלכם אם אתם מגישים תוכן חיצוני דרך ג’אווה סקריפט

אם אתם מציגים תוכן צד-שלישי דרך JavaScript, שימו לב שאם האתרים המארחים את התוכן המקורי יפרצו או יערכו את קוד ה- JS שלהם ובו תהינה גם תוכנות זדוניות, גוגל תציג את האתר שלכם (המארח) ככזה המציג תוכנה זדונית.

שלחו תת-תיקיות לכלי להסרת כתובות של גוגל על מנת לעקוף מגבלות כתובות אינדיבידואליות

הכלי URL Removal של גוגל מגביל את מספר הכתובות האינדיבידואליות שיכולות להישלח לצורכי הסרה, פר יום. על מנת לעקוף את המגבלה הזו, תוכלו להגיש תת-תיקיות על מנת להסיר מתוצאות החיפוש אזורים שלמים של תוכן.

השתמשו בקבצי מפת-אתר באופן זמני עבור הסרת כתובות בעמוד תוצאות החיפוש

קבצי מפת-אתר הן פתרון זמני כדי לעזור לגוגל לזחול או להוציא-מאינדוקס (deindex) רשימות כתובות במהירות. אומנם, עליכם לוודא שמפות-אתר אלו לא תשלחנה לגוגל לזמן רב.

כמות המילים שיש במאמר אינה פקטור באלגוריתם של גוגל

כמות המילים שיש בעמוד אינה פרמטר באלגוריתם של גוגל, כאשר גוגל מחליטה אילו עמודים לדרג גבוה יותר. בעלי אתרים יכולים לנתח את ספירת המילים כדי לראות אילו דפים עשויים להיות באיכות גבוהה או אילו עמודים מוגדרים כ”תוכן רזה”, אך הדבר אינו גורם באלגוריתם של גוגל לדירוג אתרים.