דרופל&SEO – שלושה טיפים

17 ביולי 2010 מאת: ארז הדס-זוננשיין
Drupal SEO

Drupal SEO

מערכת ניהול התוכן (CMS) שממשיכה לכבוש את העולם היא לא אחרת מאשר דרופל שזוכה שוב ושוב באין סוף תארים. היא כל כך מועדפת שאפילו אתרי ממשלה נבנים באמצעותה וכך גם פורטלים גדולים. היא כל כך אהודה עד שהקומו חברות המתמקצעות בפעילות SEO עבור דרופל בלבד.

לאור ניסיון העבודה שלי עם דרופל, אני שמח לתת מספר טיפים קטנים שיתקנו תקלות נפוצות שרוב המתכנתים (וגם אנשי SEO) לא שמים לב אליהן, גם לא חברות הטוענות להתמקצעות במערכת.

בחרתי שני אתרים שישמשו כדוגמה לתקלות SEO:
הראשון: חברת volacci.com – עמוד ראשון בגוגל עבור DRUPAL SEO
השני: nysenate.gov – אתר ממשלתי של סנטור ניו-יורק

1. NODE
כל עמוד חדש בדרופל הוא בעצם עמוד NODE המקבל דמוי-כתובת (ALIAS) אשר נותן לעמוד כתובת (URL) מפורטת יותר אודות התוכן, ברוב המקרים הכתובת היא כותרת העמוד. אחת הדרכים הטובות ביותר לגלות אילו עמודים לא הוגדרה להן כתובת ALIAS היא חיפוש בגוגל: allinurl:node site:example.com
השורה הנ"ל תציג את כל העמודים שלא הוגדרה להן כתובת מפורטת

אם תבצעו את הניסוי הזה על שני האתרים שנבחרו לצורך הניסוי, תוכלו לראות כי ל-Volacci ישנם עשרות עמודים ואילו לאתר הניו-יורקי יש מאות עמודים שלא הוגדרה להן כתובת מפורטת.

פתרון: הגדירו כתובת ALIAS לכל העמודים שעלו בתוצאות האתר שלכם

2. Taxonomy
אחד המודולים היותר פופלאריים בדרופל הוא Taxonomy, הבעיה הגדולה שלו הוא יצירת תוכן כפול שמנועי חיפוש ממש לא אוהבים. כמעט ואין היום אתר מבוסס דרופל שלא חוטא בתוכן כפול של Taxonomy. כדי לראות איך זה נראה, חפשו בגוגל site:example.com/taxonomy . לאתר של הסנטור הניויורקי ישנן כ20 תוצאות, בעוד לאתר של חברת Volacci ישנן למעלה מ-200 תוצאות, כולן תוכן משוכפל.

פתרון: הוסיפו בקובץ Robots.txt  את השורה Disallow:/taxonomy ומנועי חיפוש יפסיקו לסרוק את התקייה המשוכפלת ואף יסירו אותה בהמשך מהתוצאות

3. תיקיית Sites
חלק מעיצובי האתר, או אפילו קבצים שונים שלא בהכרח תרצו שגוגל או כל מנוע חיפוש אחר יראה, נמצאים תחת תיקיית sites, דוגמה טובה לכך תוכלו לראות באתר של הסנטור הניו-יורקי. הפתרון לכך הוא בדיוק כמו בTaxonomy, לחסום את התיקייה בפני מנועי חיפוש. עם זאת, צריך להיזהר כי בחלק מהמקרים התמונות של האתר יושבות תחת אותה התיקייה, במידה ואכן כך הדבר, רצוי לחסום כל תיקייה לגופה ולא את כל SITES כדי שגוגל יוכל להמשיך לסרוק את התמונות שבאתרכם.

פתרון: הוסיפו בקובץ Robots.txt את השורה Disallow:/sites ומנועי חיפוש יפסיקו לסרוק את התקייה ואף יסירו אותה בהמשך

מופיע בקטגוריות: מנועי חיפוש,קידום אתרים
תגיות: , ,

תגובות

תגובה אחת על ”דרופל&SEO – שלושה טיפים“
ה