遵照这些指南有助于Google找到、索引你的网站并为其排名,这是确保你的站点包含在Google搜索结果中的最好方法。即使你根本不打算按照这些建议来设计网站,我们还是强烈建议你认真考虑“品质指南”部分,那里列出了某些愚蠢的做法,有可能导致你的网站被Google完全从网站索引中剔除,而一旦某个网站被除去以后,就再不会出现在任何 Google.com 或其伙伴网站的结果中。
设计和内容指南:
网站要有清晰的层次结构和文本链接。每个网页应当至少能从一个静态文本链接到达。
为您的用户提供一个网站地图(site map),其中有指向重要内容的链接,如果网站地图内的链接数量超过100,你应当将其分为几个页面。
创建一个有用的、信息丰富的网站,网页应当清晰、准确地描述你的内容。
设想用户可能会用哪些词语来查找你的网页,并且确保你的站点含有这些词语。
重要的名称、内容或链接应当用文本而不是图片显示。Google搜索机器人不认识图片中的文字。
确保使用描述性的 TITLE 和 ALT 标签,而且要准确。
检查坏链接,使用正确的HTML标记。
如果你使用动态页面(即URL中包含"?"字符),要知道不是每个搜索爬虫都能像搜索静态页面一样搜索动态页面,最好保持参数或数字简短。
将页面内的链接数量限制在合理的范围内(小于100)。
技术指南:
使用纯文本浏览器比如 Lynx 来检视你的网站,因为大多数网络爬虫看待网站的方式和Lynx一样。如果你使用了许多花俏的功能如Javascript, Cookies, Session ID,框架,DHTML或Flash,而在纯文本的浏览器中却看不到你的网站,那么搜索爬虫也无可奈何。
允许搜索机器人在没有会话ID或参数的情况下能够游历你的站点。这些技术对跟踪某个用户的行为可能有用,但机器人的访问模式却截然不同。使用这些技术将会导致站点索引的不完整,因为机器人也许无法消除哪些似乎不同但是却指向同一个页面的URL。
确保您的Web服务器支持If-Modified-Since HTTP报头,这个特性可以告诉Google自从上次游历以来哪些内容发生了变化。支持该功能可以节省你的带宽和反应时间。
充分使用服务器的robots.txt文件。这个文件告诉网络爬虫,哪些目录可以或者不能被遍历。确保它的及时性,以免无意中阻止Google爬虫的行动。关于网络爬虫以及如何控制它们访问您的网站的常见问题和解答,请参阅http://www.robotstxt.org/wc/faq.html。
如果你的公司购买了内容管理系统,请确保这个系统能够输出内容,使得搜索引擎可以游历你的站点。
当你的网站准备好以后:
你的网站放到网上以后,将其提交给Google: http://www.google.com/addurl.html.
确保所有知道你的网页的站点知道你的站点已经发布到网上。
确保你的网站已经提交到相关站点或目录,比如Open Directory Project 或 Yahoo!。
定期阅读Google的 webmaster 部分以获取更多信息。
品质指南 - 基本原则:
你的网页是为用户制作的,不是为搜索引擎写的。永远不要欺骗您的用户,或者为搜索引擎和用户显示不同的内容。
避免采用那些目的是提高搜索排名的花招。老实而又高明的做法就是为你的网站做到了全心全意地投入。不妨问问自己, “这对我的用户有帮助吗?如果不存在搜索引擎,我还会这样做吗?”
不要参加旨在提高站点的网页排名的链接计划。尤其要避免链接到垃圾站点或网上的“坏邻居”,因为他们会对您的网站排名带来不利影响。
不要使用未经授权的电脑程序来提交网页、检查排名等等。这类程序浪费计算资源并且违反了我们的服务条款。Google不推荐使用诸如WebPosition Gold之类的产品自动用程序向Google进行检索。
品质指南 - 特别注意:
避免隐藏的文本或链接。
不要使用隐藏页面或暗地重定向。
不要向Google自动发送查询。
不要装载与主题词无关的页面。
不要建立多重页面、子域名,以及内容严重重复的域名。
避免仅为搜索引擎而设置的“门面”网页,或者其他“Cookie杀手”方案,例如没有什么实际内容的联盟程序。
这些品质指南涵盖了大多数常见的误导或操纵行为,但是Google无疑还对其他未列出的误导行为(比如注册与知名网站雷同的域名的网站来玩弄用户)做出降格回应,不要以为某些欺骗招数在这里没有列出就安全了,误以为是 Google 认可的。将精力集中在把握上述原则之精华的网管们,比那些花费时间寻找并利用漏洞的人更能够提供良好的用户体验,进而也能得到较高的排名。
如果你确信其他网站正在滥用 Google 的品质指南,请向 http://www.google.com/contact/spamreport.html 举报。 Google愿意针对这个问题开发可伸缩的和自动化的解决方案,以减少和垃圾网站的徒手战斗。我们将用收到的垃圾网站检举材料来创建可伸缩的算法,来识别并阻断垃圾站点。