സെർച്ച് എൻജിൻ വഴി പ്രത്യേക വാക്കോ വാചകമോ നിശ്ചിത നാമമോ ഉപയോഗിച്ച് തിരച്ചിൽ നടത്തുമ്പോൾ ഒരു വെബ്സൈറ്റ് അല്ലെങ്കിൽ ഒരു വെബ് പേജ് പെട്ടെന്ന് കണ്ടെത്തപ്പെടുകയും അത് വഴി കൂടുതൽ സന്ദർശകരെ ആ വെബ്സൈറ്റിലേക്ക് എത്തിക്കുകയും ചെയ്യുന്ന പ്രക്രിയയാണ് സെർച്ച് എൻജിൻ ഒപ്റ്റിമൈസേഷൻ അഥവാ എസ്.ഇ.ഒ (SEO).
സാധാരണഗതിയിൽ സെർച്ച് എൻജിൻ നൽകുന്ന തിരച്ചിൽ ഫലത്തിൽ ആദ്യ പേജിൽ എത്തുന്നതും, കൂടുതലായി തിരച്ചിൽ ഫലങ്ങളിൽ വരുന്നതും കൂടുതൽ സന്ദർശകരെ ലഭിക്കുന്നതിന് കാരണമാകുന്നു. ചിത്രങ്ങളുടെ തിരച്ചിൽ, പ്രാദേശിക തിരച്ചിൽ, സിനിമകളുടെ തിരച്ചിൽ, വിദ്യാഭ്യാസ സംബന്ധമായ തിരച്ചിൽ, വാർത്താ തിരച്ചിൽ തുടങ്ങി വ്യത്യസ്ത തരത്തിലുള്ള കോടാനുകോടി തിരച്ചിലുകളാണ് ഗൂഗിൾ, ബിംഗ്, യാഹൂ തുടങ്ങിയ സെർച്ച് എൻജിനുകളിൽ നടക്കുന്നത്.
സെർച്ച് എഞ്ചിനുകളുടെ പ്രവർത്തന രീതി, ആൾക്കാർ എന്തൊക്കെ തിരയുന്നു, തിരച്ചിലിനായി ഉപയോഗിക്കപ്പെടുന്ന പദങ്ങൾ (Keyword), ഏതൊക്കെ സെർച്ച് എഞ്ചിനുകൾ തുടങ്ങി ഇന്റർനെറ്റ് വിപണന തന്ത്രം(Internet Marketing) അനുസരിച്ചുള്ള പല കാര്യങ്ങൾ നിശ്ചിത ലക്ഷ്യത്തോടെ എസ്.ഇ.ഓയിൽ പരിഗണിക്കുന്നു. ലക്ഷ്യമിട്ടിരിക്കുന്ന കീവേഡുകൾക്ക് വേണ്ടി വെബ്സൈറ്റിന്റെ അല്ലെങ്കിൽ വെബ് പേജിന്റെ ഉള്ളടക്കവും എച്ച്.ടി.എം.എല്ലും അനുബന്ധ കോഡുകളും തിരുത്തുകയും അതുവഴി സെർച്ച് എഞ്ചിനുകളുടെ ഇൻഡക്സിങ്ങ് പ്രക്രിയകളിലെ പ്രതിബന്ധങ്ങളിൽ മുന്നേറ്റമുണ്ടാക്കുകയുമാണ് എസ്.ഇ.ഓ മെച്ചപ്പെടുത്തലിൽ ചെയ്യുന്നത്. ബാക്ക്ലിങ്കുകൾ വർദ്ധിപ്പിക്കുന്നതിനായി സൈറ്റിന്റെ പ്രചാരം വർദ്ധിപ്പിക്കുന്നതും എസ്.ഇ.ഒ യിലെ ഒരു പ്രക്രിയയാണ്.
സേവന സ്വീകർത്താക്കൾക്ക് വേണ്ടി ഇത്തരം മെച്ചപ്പെടുത്തലുകൾ ചെയ്തു നൽകുന്ന സംഘത്തേയും വ്യക്തികളേയും SEOs (സെർച്ച് എഞ്ചിൻ ഒപ്റ്റിമൈസേഴ്സ്) എന്നാണ് ബന്ധപ്പെട്ട മേഖലയിൽ പൊതുവായുള്ള വിളിപ്പേര്. സെർച്ച് എഞ്ചിൻ ഒപ്റ്റിമൈസേഴ്സ് അവരുടെ എസ്.ഇ.ഒ. സേവനം പ്രത്യേകമായോ അല്ലെങ്കിൽ വലിയൊരു വിപണന പ്രചാരണ യജ്ഞനത്തിന്റെ ഭാഗമായോ നൽകാറുണ്ട്. ഫലപ്രദമായ എസ്.ഇ.ഒ. യ്ക്ക് എച്ച്.ടി.എം.എൽ. സോഴ്സ് കോഡിൽ മാറ്റം വരുത്തുന്നത് അനിവാര്യമായതിനാൽ എസ്.ഇ.ഒ. തന്ത്രങ്ങൾ വെബ്സൈറ്റ് വികസനത്തിന്റേയും രൂപകല്പനയുടേയും ഭാഗമാക്കാറുണ്ട്. രൂപകല്പന, മെനു, കണ്ടന്റ് മാനേജ്മെന്റ്, ചിത്രങ്ങൾ, വീഡിയോകൾ, ഷോപ്പിങ്ങ് കാർട്ടുകൾ തുടങ്ങിയവ സെർച്ച് എഞ്ചിനിൽ കൃത്യമായി രേഖപ്പെടുത്തി എസ്.ഇ.ഓമാർ സൈറ്റുകൾ സെർച്ച് എൻജിൻ ഫ്രണ്ട്ലി ആക്കുന്നു.
ചരിത്രം
1990 കളുടെ മദ്ധ്യത്തിലാവിർഭവിച്ച ആദ്യകാല സെർച്ച എഞ്ചിനുകൾ വെബ്ബിനെ പറ്റിയുള്ള വിവരങ്ങൾ ക്രോഡീകരിച്ചവതരിപ്പിക്കുമ്പോൾ തന്നെ വെബ്മാർസ്റ്റർമാരും ഉള്ളടക്കദാതാക്കളും അവരുടെ സൈറ്റുകളെ അതിനു വേണ്ടി മെച്ചപ്പെടുത്തുവാനാരംഭിച്ചു.
ആദ്യകാലങ്ങളിൽ തിരച്ചിൽഫലങ്ങളിൽ ഉൾപ്പെടുത്തുന്നതിനായി താളുകളുടെ വെബ് അഡ്രസ്സ് അഥവാ യൂ.ആർ.എൽ. വെബ്മാസ്റ്റർമാർ സെർച്ച് എഞ്ചിനുകൾ സമർപ്പിക്കണമായിരുന്നു, തുടർന്ന് സെർച്ച് എഞ്ചിനുകൾ ‘സ്പൈഡർ'(Spider) പ്രോഗ്രാമുകളുപയോഗിച്ച് പേജുകളെ ‘ക്രൗൾ'(Crawl) ചെയ്യുന്നു, അവ മറ്റ് താളുകളിലേക്കുള്ള കണ്ണികൾ ശേഖരിക്കുകയും ഇൻഡക്സ് ചെയ്യപ്പെടേണ്ട വിവരങ്ങൾ സെർച്ച് എഞ്ചിനുകൾക്ക് നൽകുകയും ചെയ്യുന്നു. സ്പൈഡർ ആദ്യമായി താൾ സെർച്ച് എഞ്ചിന്റെ സ്വന്തം സെർവറിലേക്ക് ഡൗൺലോഡ് ചെയ്യുന്നു, ശേഷം ഇൻഡക്സർ എന്നറിയ്യപ്പെടുന്ന മറ്റൊരു പ്രോഗ്രാം താളിൽ നിന്ന് വ്യത്യസ്ത വിവരങ്ങൾ ശേഖരിക്കുന്നു; താളിലെ വാക്കുകൾ, അവയുടെ താളിലെ സ്ഥാനം, നിശ്ചിത വാക്കുകളുടെ മുൻഗണന എന്നിവ ഇങ്ങനെ ശേഖരിക്കുന്നവയിൽപ്പെടുന്നു. കൂടാതെ ആ താളിൽ നിന്നും മറ്റ് താളുകളിലേക്കുള്ള കണ്ണികളും ശേഖരിക്കുന്നു, ഇങ്ങനെ ശേഖരിച്ച കണ്ണി ചൂണ്ടുന്ന താളുകൾ പിന്നീട് ക്രൗൾ ചെയ്യുന്നതിനായി മാറ്റി വയ്ക്കുന്നു.
താമസിയാതെ സൈറ്റ് ഉടമകൾ തങ്ങളുടെ വെബ്സൈറ്റുകൾ സെർച്ച് എഞ്ചിൽ ഫലങ്ങളിൽ ഉയർന്ന റാങ്കോടെ പ്രത്യക്ഷപ്പെടേണ്ടതിന്റെ മൂല്യം തിരിച്ചറിയാൻ തുടങ്ങുകയും, അത് വൈറ്റ് ഹാറ്റ്, ബ്ലാക്ക് ഹാറ്റ് എസ്.ഇ.ഒ. നടപ്പിൽ വരുത്തുന്നവർ ഉയർന്ന് വരുന്നതിലേക്കെത്തിക്കുകയും ചെയ്തു. മേഖലയിലെ വിദഗ്ദനായ ഡാന്നി സുള്ളിവന്റെ(Danny Sullivan) അഭിപ്രായത്തിൽ ‘സെർച്ച് എഞ്ചിൻ ഒപ്റ്റിമൈസേഷൻ’ എന്നത് പ്രയോഗത്തിൽ വന്നത് 1997 ലാണ്. ജോൺ ആഡെറ്റെയുടെ(John Audette) മൾട്ടിമീഡിയ മാർക്കെറ്റിങ്ങ് ഗ്രൂപ്പാണ് ‘Search Engine Optimization‘ എന്നത് ആദ്യമായി രേഖപ്പെടുത്തി ഉപയോഗിച്ചതെന്ന് 1997 ലെ എം.എം.ജി. സൈറ്റിലെ ഒരു വെബ്താളിൽ രേഖപ്പെടുത്തിയിട്ടുണ്ട്.
വെബ്മാസ്റ്റർമാർ നൽകുന്ന കീവേഡ് മെറ്റാ ടാഗുകൾ ഉപയോഗപ്പെടുത്തുക അല്ലെങ്കിൽ ALIWEB പോലെ ഇൻഡക്സ് ചെയ്യുക എന്നതായിരുന്നു ആദ്യകാല തിരച്ചിൽ അൽഗോരിതങ്ങൾ അവലംബിച്ചിരുന്ന രീതി. മെറ്റാ ടാഗുകൾ അതാത് താളുകളിലെ ഉള്ളടക്കത്തെ കുറിച്ച് വിവരങ്ങൾ നൽകുവാനായിരുന്നു. എന്നാൽ മെറ്റാ ടാഗുകളിൽ വെബ്മാസ്റ്റർ നൽകുന്ന വിവരങ്ങൾ താളുകളിലെ യഥാർത്ഥ ഉള്ളടക്കത്തിൽ നിന്ന് വെത്യാസമാകാമെന്നതിനാൽ അതുപയോഗിച്ചുള്ള രീതിയിൽ വിശ്വാസത കുറഞ്ഞതാണെന്ന് മനസ്സിലായി. കൃത്യമല്ലാത്തതും, അപൂർണ്ണമായതും, അസ്ഥിരവുമായ മെറ്റാ ടാഗിലെ ഡാറ്റ തിരച്ചിൽ ഫലങ്ങളിൽ താളുകളെ അപ്രസക്തമായ തിരച്ചിൽ ഫലങ്ങളിൽ ഉൾപ്പെടാൻ കാരണമാകുന്നു. തിരച്ചിൽഫലങ്ങളിൽ ഉയർന്ന സ്ഥാനത്തേക്ക് വരുന്നതിനു വേണ്ടി വെബ് ഉള്ളടക്ക നിർമ്മാതാക്കൾ എച്ച്.ടി.എം.എൽ. സോഴ്സിൽ മാറ്റങ്ങൾ വരുത്താറുണ്ട്.
കീവേർഡ് സാന്ദ്രത പോലെ പൂർണ്ണമായും വെബ്മാസ്റ്റർമാരുടെ അധീനതയിലുള്ള കാര്യങ്ങളെ ആശ്രയിച്ചിരുന്നതിനാൽ ആദ്യകാല സെർച്ച് എഞ്ചിനുകൾ വെബ്മാസ്റ്റർമാരുടെ ദുർവിനിയോഗങ്ങൾക്കും കൗശല പ്രയോഗങ്ങൾക്കും വിധേയമായിരുന്നു. ധർമ്മവിരുദ്ധരായ വെബ്മാസ്റ്റർമാർ നൽകുന്ന പരസ്പര ബന്ധമില്ലാത്ത താളുകളും അവയിലെ കീവേഡുകളും ഉപയോഗപ്പെടുത്തുന്നതിനു പകരം സെർച്ച് എൻജിനുകൾക്ക് തങ്ങളുടെ ഉപയോക്താക്കൾക്ക് കാര്യപ്രസ്ക്തമായ മെച്ചപ്പെട്ട ഫലങ്ങൾ നൽകുന്നതിനായി മാർഗ്ഗങ്ങൾ ആരായേണ്ടതായി വന്നു. സമർപ്പിക്കപ്പെട്ടിരിക്കുന്ന തിരച്ചിലിന് ഏറ്റവും അനുയോജ്യമായ ഫലങ്ങൾ നൽകുന്നത് സെർച്ച് എഞ്ചിനുകളുടെ വിജയത്തിനും പ്രചാരത്തിനും ആവശ്യമാണ്. അല്ലെങ്കിൽ ഉപയോക്താക്കൾ മറ്റ് സെർച്ച് എഞ്ചിനുകളിലേക്ക് തിരിയാനിടവരും. ഇത് വെബ്മാസ്റ്റർമാർക്ക് സ്വാധീനിക്കാൻ വിഷമമുള്ള ഘടകങ്ങൾ കണക്കിലെടുത്ത് പ്രവർത്തിക്കുന്ന സങ്കീർണ്ണമായ റാങ്കിങ്ങ് അൽഗോരിതങ്ങൾ വികസിപ്പിക്കുന്നതിലേക്ക് നയിച്ചു.
വെബ്താളുകളുടെ പ്രാധാന്യം കണക്കാക്കുന്നതിനായി ഒരു ഗണിത അൽഗോരിതത്തെ പിൻപറ്റുന്ന ‘backrub‘ എന്ന സെർച്ച് എഞ്ചിൻ സ്റ്റാൻഡ്ഫോർഡ് സർവ്വകലാശാലയിലെ ബിരുദവിദ്യാർത്ഥികളായ ലാറി പേജും(Larry Page) സെർജി ബ്രിനും(Seregy Brin) ചേർന്ന് വികസിപ്പിക്കുകയുണ്ടായി. അൽഗോരിതം കണക്കാക്കുന്ന PageRank എന്ന സംഖ്യ താളിലേക്ക് ചൂണ്ടുന്ന ഇൻബൗണ്ട് കണ്ണികളുടെ ഗുണനിലവാരത്തിന്റേയും ഈടിന്റെയും ഒരു ഫലനമാണ്. ക്രമരഹിതമായി വെബിൽ സർഫ് ചെയ്യുന്ന ഒരു ഉപയോക്താവ് കണ്ണികളിലൂടെയുള്ള സഞ്ചാരം വഴി ഒരു താളിൽ എത്തിപ്പെടാനുള്ള സാധ്യതയാണ് PageRank വഴി കണക്കാക്കുന്നത്. ഇത് ചില കണ്ണികൾ മറ്റുള്ളവയേക്കാൾ ശക്തമാണെന്ന് കാണിക്കുന്നു, ഉയർന്ന PageRank കുറഞ്ഞ താളുകളേക്കാൾ അത് കൂടുതലുള്ള താളുകളിലേക്ക് ഒരുപയോക്താവ് എത്താനുള്ള സാധ്യത കൂടുതലാണ്.