SEO là gì?
Tối ưu hóa công cụ tìm kiếm (SEO) viết tắt của từ Search Engine Optimization là quá trình nâng cao thứ hạng của toàn website hoặc một trang của website trên công cụ tìm kiếm và nằm trong kết quả tìm kiếm tự nhiên. SEO có thể nhắm mục tiêu tìm kiếm bao gồm cả tìm kiếm hình ảnh, tìm kiếm địa phương, tìm kiếm video và tìm kiếm theo chiều dọc(vertical search).
Là một kênh marketing online chiến lược, SEO là cách xem xét cách vận hành của công cụ tìm kiếm và những gì mọi người tìm kiếm. Tối ưu hóa một trang web có thể bao gồm chỉnh sửa nội dung, HTML, phương thức lập trình để gia tăng sự liên quan của nó đến từ khóa cụ thể và để loại bỏ các rào cản đối với các hoạt động lập chỉ mục của công cụ tìm kiếm. Quảng bá một trang web để tăng số lượng backlinks , hoặc liên kết Inbound, là một chiến thuật SEO khác.
Tối ưu hóa công cụ tìm kiếm SEO có thể cung được cấp như một dịch vụ độc lập hoặc là một phần của một chiến dịch tiếp thị rộng hơn. Để làm SEO hiệu quả có thể phải thay đổi mã nguồn HTML của trang web nên SEO có thể được kết hợp từ lúc bắt đầu thiết kế và phát triển trang web. Thuật ngữ “thân thiện với công cụ tìm kiếm(friendly with search engine)” có thể được dùng để mô tả trong việc thiết kế trang web, các menu chính, hệ thống quản lý nội dung , hình ảnh, video, giỏ mua hàng , và các yếu tố khác đã được tối ưu hóa cho mục đích giúp với công cụ tìm kiếm dễ dàng tiếp xúc với website.
Một loại kỹ thuật khác của SEO, được gọi là SEO mũ đen hoặc spamdexing , sử dụng các phương pháp như link farm , nhồi từ khoá và copy nội dung làm suy giảm cả sự liên quan của kết quả tìm kiếm và kinh nghiệm người dùng công cụ tìm kiếm. Công cụ tìm kiếm sẽ loại bỏ các trang web có sử dụng các kỹ thuật này ra khỏi chỉ mục.
|
SEO là gì? |
Lược sử
Webmaster và các nhà thiết kế bắt đầu tối ưu hóa các trang web cho công cụ tìm kiếm vào giữa những năm 1990 khi đó các công cụ tìm chủ yếu là liệt kê các danh mục. Ban đầu, tất cả các webmaster gửi địa chỉ của một trang, hoặc URL , đến các công cụ tìm kiếm khác nhau, các công cụ tìm kiếm sẽ gửi một “con nhện” (web spider) để thu thập thông tin của trang đó và trích xuất các liên kết đến các trang khác từ nó, các thông tin sẽ được lưu và tìm thấy trên công cụ tìm kiếm sau khi được lập chỉ mục . Quá trình liên quan bao gồm một spider của công cụ tìm kiếm tải một trang web và lưu trữ nó trên máy chủ riêng của công cụ tìm kiếm, kế tiếp một chương trình thứ hai được biết đến như là một indexer , chiết xuất các thông tin về trang web, chẳng hạn như những từ ngữ nó chứa, vị trí của các từ này, số lượng từ cụ thể, và tất cả các liên kết có trong trang, sau đó hệ thống tự động sẽ thiết lập thời gian để quay lại trang đó thu thập thêm các dữ liệu mới.
Chủ sở hữu trang web bắt đầu nhận thấy giá trị của việc trang web của họ được xếp hạng cao trong kết quả công cụ tìm kiếm, tạo ra một cơ hội cho cả hai “mũ trắng” và “mũ đen” hành nghề SEO. Theo nhà phân tích ngành công nghiệp Danny Sullivan , cụm từ “tối ưu hóa công cụ tìm kiếm” được đưa vào sử dụng vào năm 1997.
Những phiên bản đầu tiên của công cụ tìm kiếm sử dụng các thuật toán mà chủ yếu dựa vào webmaster cung cấp thông tin như các từ khoá của thẻ meta , hoặc tập tin chỉ mục trong các công cụ như ALIWEB . Thẻ Meta cung cấp một tài liệu hướng dẫn cho từng nội dung của trang. Dần dần thông tin dữ liệu các trang có trong chỉ mục được tìm thấy ít đáng tin cậy hơn, vì webmaster dùng rất nhiều các từ khóa trong thẻ meta và có nhiều từ khóa không thể hiện chính xác nội dung của một trang được tìm thấy. Sự không chính xác, không đầy đủ, và dữ liệu không nhất quán trong các thẻ meta và các trang đã gây ra xáo trộn, tạo ra các trang có xếp hạng cao trong các máy tìm kiếm nhưng nội dung không liên quan. Nội dung web cũng bị chế tác một số thuộc tính trong mã nguồn HTML cố gắng để xếp hạng tốt trong công cụ tìm kiếm.
Bằng cách dựa quá nhiều vào các yếu tố như mật độ từ khóa được độc quyền trong vòng kiểm soát của một webmaster, công cụ tìm kiếm bắt đầu bị lạm dụng và thao tác xếp hạng. Để cung cấp kết quả tốt hơn cho người sử dụng, công cụ tìm kiếm đã phải thích ứng để đảm bảo các trang kết quả cho ra các kết quả tìm kiếm có liên quan nhất, hơn là các trang không liên quan với nhiều từ khoá được nhồi nhét bởi webmaster. Khi mà sự thành công và phổ biến của một công cụ tìm kiếm được xác định bởi khả năng cho ra các kết quả có liên quan nhất cho bất kỳ tìm kiếm nào, và việc cho ra những kết quả sai sẽ khiến người dùng chuyển sang các nguồn tìm kiếm khác. Công cụ tìm kiếm phản ứng bằng cách phát triển phức tạp hơn các thuật toán xếp hạng, có tính đến các yếu tố bổ sung khác đã khó khăn hơn cho các webmaster trong việc thao túng thứ hạng website.
Là sinh viên ở Đại học Stanford , Larry Page và Sergey Brin đã phát triển “backrub”, một công cụ tìm kiếm dựa trên thuật toán toán học để đánh giá độ nổi trội của các trang web. Số lượng tính bằng thuật toán được gọi là PageRank , là một chức năng tính số lượng và sức mạnh của các liên kết Inbound . PageRank ước lượng khả năng một trang web nào đó có thể được xuất hiện người nhiên ngẫu trước một người dùng khi lướt web, và cho phép các liên kết từ một trang này đến trang khác được tìm thấy. Trong thực tế, điều này có nghĩa rằng một số liên kết mạnh hơn những liên kết khác, cũng như là một trang PageRank cao hơn sẽ có nhiều khả năng được người dùng tìm thấy cao hơn.
Page và Brin thành lập Google vào năm 1998. Google đã thu hút một lượng lớn người dùng Internet ngày càng tăng, những người thích thiết kế đơn giản của nó. Các yếu tố ngoài trang “off page” (như PageRank và phân tích siêu liên kết) cũng như các yếu tố trên trang “on page” (như tần xuất từ khóa, thẻ meta, tiêu đề, liên kết và cấu trúc trang web) cho phép Google tránh những loại thao tác thường thấy trong các công cụ tìm kiếm mà chỉ xem xét các yếu tố trên trang cho thứ hạng của họ. Mặc dù PageRank là khó chơi hơn, các webmater đã phát triển các công cụ liên kết và sự sắp đặt có hệ thống và đã gây ảnh hưởng đến công cụ tìm kiếm Inktomi, và những phương pháp này tỏ ra có thể áp dụng tương tự đối với PageRank. Nhiều trang web tập trung vào việc trao đổi, mua và bán hàng ngàn liên kết thường xuyên trên một quy mô lớn. Trong số này bao gồm việc lập ra một hệ thống website, hoặc các trang trại liên kết , liên quan đến việc tạo ra hàng ngàn các trang web cho mục đích duy nhất là liên kết rác .
Đến năm 2004, công cụ tìm kiếm đã kết hợp một loạt các yếu tố không được tiết lộ trong các thuật toán xếp hạng của mình để giảm tác động của các thao tác liên kết. Google cho biết họ sử dụng hơn 200 tín hiệu khác nhau để xác định thứ hạng của một website. Các công cụ tìm kiếm hàng đầu, Google và Yahoo , không tiết lộ các thuật toán họ dùng để xếp hạng các trang. Những nhà cung cấp dịch vụ SEO, như Rand Fishkin, Barry Schwartz , Aaron Wall và Jill Whalen , đã nghiên cứu các cách tiếp cận khác nhau để tìm kiếm cách tối ưu hóa website, và đã công bố ý kiến của mình trên nhiều diễn đàn và blog . Các học viên SEO cũng có thể tham gia các khóa học đươc tổ chức bởi công cụ tìm kiếm để đạt được cái nhìn sâu sắc trong các thuật toán.
Năm 2005, Google bắt đầu cá nhân hoá kết quả tìm kiếm cho mỗi người dùng. Tùy thuộc vào lịch sử của họ tìm kiếm trước đây, Google lưu lại kết quả cho người sử dụng đăng nhập tài Google. Năm 2008, Bruce Clay nói rằng “xếp hạng là chết” vì tìm kiếm được cá nhân hoá. Nó sẽ trở thành vô nghĩa để thảo luận làm thế nào một trang web xếp hạng, bởi vì thứ hạng của nó có khả năng sẽ khác nhau cho mỗi người dùng và mỗi tìm kiếm.
Trong năm 2007 Google đã công bố một chiến dịch chống lại các liên kết trả tiền để tăng PageRank. Ngày 15 tháng sáu 2009, Google công bố rằng họ đã thực hiện các biện pháp để giảm thiểu những ảnh hưởng của PageRank áp dụng bằng việc sử dụng thuộc tính nofollow trên các liên kết. Matt Cutts , một kỹ sư phần mềm nổi tiếng tại Google, thông báo rằng Google Bot sẽ không còn nhận định liên kết nofollowed theo cùng một cách. Để đáp lại điều trên các nhà cung cấp dịch vụ SEO đã nghĩ ra một thủ thuật khác nhằm thay thế nofollow tag bằng obfuscated Javascript và cho phép PageRank được tính. Ngoài ra một số giải pháp đã được đề xuất bao gồm việc sử dụng iframes , Flash và Javascript.
Tháng 12 năm 2009 Google đã công bố sẽ sử dụng lịch sử tìm kiếm web của mọi người sử dụng để cho ra kết quả tìm kiếm. Tìm kiếm thời gian thực được giới thiệu vào cuối năm 2009 trong một nỗ lực để làm cho kết quả tìm kiếm kịp thời và có liên quan. Với sự phát triển của mạng xã hội và blog, các công cụ tìm kiếm hàng đầu đã thay đổi thuật toán của họ để cho phép nội dung mới được xếp hạng một cách nhanh chóng trong kết quả tìm kiếm. Cách tiếp cận này tạo ra một tầm quan trọng đối trong việc tạo ra nội dung mới và độc nhất.
Vị trí xuất hiện website trong phần kết quả tìm kiếm tự nhiên
Quan hệ với công cụ tìm kiếm
Năm 1997 công cụ tìm kiếm nhận ra rằng webmaster đã nỗ lực để xếp hạng tốt trong công cụ tìm kiếm của họ, và rằng một số webmaster đã cố thao tác để có được vị trí cao trong bảng xếp hạng trong các kết quả tìm kiếm bằng cách nhồi nhét từ khoá quá nhiều hoặc không liên quan. Công cụ tìm kiếm đầu tiên, chẳng hạn như Infoseek , đã điều chỉnh các thuật toán của họ trong một nỗ lực để ngăn chặn webmaster thao tác bảng xếp hạng.
Do giá trị tiếp thị cao của kết quả tìm kiếm có tiềm năng cho một mối quan hệ đối đầu giữa các công cụ tìm kiếm và nhà cung cấp dịch vụ SEO. Năm 2005 các công cụ tìm kiếm đã tổ chức một hội nghị hàng năm tên AIRWeb, được tạo ra để thảo luận và giảm thiểu các tác hại của việc đối đầu thông tin trên Web.
Công ty SEO có sử dụng kỹ thuật quá tích cực có thể khiến trang web của khách hàng của mình bị chặn từ các kết quả tìm kiếm. Năm 2005, Wall Street Journal đưa tin về một công ty tên Traffic Power bị cáo buộc sử dụng các kỹ thuật có nguy cơ cao và không tiết lộ những rủi ro cho khách hàng. Tờ tạp chí Wired đưa tin rằng công ty trên đã kiện blogger và SEO Aaron Wall do viết về lệnh cấm này. Matt Cutts tại Google sau đó xác nhận rằng Google đã chặn Traffic Power và một số khách hàng của công ty.
Một số công cụ tìm kiếm cũng đã tìm đến ngành công nghiệp SEO, vừa là nhà tài trợ thường xuyên vừa là khách hàng tại các hội nghị, cuộc trò chuyện, và hội thảo về SEO. Trong thực tế, với sự ra đời của quảng cáo trả tiền, một số công cụ tìm kiếm hiện nay có quyền lợi trong việc duy trì cộng đồng SEO tốt. Các công cụ tìm kiếm cung cấp thông tin và hướng dẫn để giúp tối ưu hóa trang web. Google có Sitemaps để giúp các quản trị web tìm hiểu nếu Google có bất kỳ vấn đề gì trong việc lập chỉ mục trang web của họ và cũng cung cấp dữ liệu cho Google, ví dụ như: lưu lượng truy cập đến trang web. Google guidelines là một danh sách hướng dẫn thực hành SEO cơ bản cho webmaster. Yahoo! Site Explorer cung cấp một cách để quản trị web để gửi URL, xác định được bao nhiêu trang lưu trữ trong Yahoo.! Thông tin về link liên kết.
Lập chỉ mục
Các công cụ tìm kiếm hàng đầu như Google, Bing và Yahoo!, sử dụng Crawler để tìm các trang web cho kết quả tìm kiếm bằng thuật toán của họ. Các trang được liên kết từ các công cụ tìm kiếm khác được lập chỉ mục một cách tự động. Một số công cụ tìm kiếm, đáng chú ý là Yahoo!, đảm bảo thu thập và lập chỉ mục trang web cho cả tìm kiếm có trả tiền (như quảng cáo Google Adwords) hoặc tìm kiếm tụ nhiên. Những chương trình này thường đảm bảo đưa vào cơ sở dữ liệu, nhưng không đảm bảo xếp hạng cụ thể trong kết quả tìm kiếm. Yahoo có hai thư mục lớn, Directory Yahoo và Open Directory Project cả hai yêu cầu hướng dẫn sử dụng và xem xét biên tập của con người. Google cung cấp Google Webmaster Tools , Sơ đồ trang web XML dữ liệu có thể được tạo ra và gửi miễn phí đảm bảo rằng tất cả các trang được tìm thấy, đặc biệt là các trang không thể phát hiện bằng cách tự động tìm liên kết.Crawlers của công cụ tìm kiếm có thể xem xét một số yếu tố khác nhau khi thu thập một trang web. Không phải mọi trang đều được lập chỉ mục. Khoảng cách của các trang web từ thư mục gốc của một trang web cũng có thể là một yếu tố để các trang có hoặc không được thu thập thông tin.
Ngăn chặn thu thập thông tin
Để tránh nội dung không mong muốn có trong danh mục tìm kiếm, quản trị web có thể hướng dẫn nhện không thu thập dữ liệu một số tập tin hoặc thư mục thông qua các tiêu chuẩn robots.txt trong thư mục gốc của tên miền. Ngoài ra, một trang có thể được loại trừ khỏi công cụ tìm kiếm từ cơ sở dữ liệu bằng cách sử dụng một thẻ meta cụ thể cho robot tìm kiếm. Khi một công cụ tìm kiếm thăm một trang web, các robots.txt nằm trong thư mục gốc là file đầu tiên được thu thập thông tin. Các tập tin robots.txt sau đó được phân tích cú pháp, và nó sẽ hướng dẫn các robot tìm kiếm trang nào không được thu thập thông tin. Công cụ tìm kiếm có thể giữ một bản sao cache của tập tin trên web, đôi khi nó thu thập dữ liệu một trang nào đó mà webmaster không muốn được thu thập thông tin. Các trang thường ngăn cản được thu thập thông tin bao gồm các trang đăng nhập, giỏ mua hàng và nội dung như kết quả tìm kiếm từ các tìm kiếm nội bộ. Trong tháng ba năm 2007, Google cảnh báo webmaster rằng họ cần ngăn lập chỉ mục kết quả tìm kiếm nội bộ bởi vì các trang tìm kiếm nội bộ được coi là rác.
Tăng nổi tiếng
Một loạt các phương pháp có thể làm tăng sự nổi bật của trang web trong kết quả tìm kiếm. liên kết chéo giữa các trang trong cùng một trang web để cung cấp thêm các liên kết đến các trang quan trọng nhất có thể cải thiện khả năng của nó. Viết nội dung bao gồm từ khoá tìm kiếm cụm từ thường xuyên, có liên quan đến một loạt các truy vấn tìm kiếm như vậy sẽ có xu hướng gia tăng lưu lượng truy cập. Thêm từ khóa liên quan đến trang meta của dữ liệu web, bao gồm các thẻ tiêu đề và thẻ mô tả sẽ có xu hướng cải thiện sự liên quan của của danh sách tìm kiếm một trang web, do đó tăng lượng truy cập của các trang web. Sử dụng ” canonical” meta hoặc chuyển hướng 301 có thể giúp tạo liên kết từ các phiên bản khác nhau, tất cả các url hướng đến trang phổ biến nhất.
Mũ trắng và mũ đen
Các kỹ thuật SEO được phân thành hai loại lớn: kỹ thuật mà công cụ tìm kiếm đề nghị như một phần của thiết kế tốt, và những kỹ thuật mà công cụ tìm kiếm không phê duyệt và cố gắng để giảm thiểu tác động của việc bị xem là spamdexing . Một số nhà bình luận công nghiệp phân loại các phương pháp này, và những người sử dụng chúng là một trong hai SEO mũ trắng hay SEO mũ đen. Mũ trắng có xu hướng tạo ra kết quả trong thời gian dài, trong khi mũ màu đen dự đoán rằng trang web của họ cuối cùng sẽ bị chặn một khi các công cụ tìm kiếm phát hiện ra những gì họ đang làm.
Kỹ thuật SEO minh bạch hay phương pháp được xem là mũ trắng nếu nó phù hợp với hướng dẫn các công cụ tìm kiếm ‘và không có liên quan đến việc lừa dối. Các hướng dẫn của công cụ tìm kiếm không phải là một loạt các qui tắc hay mệnh lệnh, đây là một khác biệt quan trọng cần lưu ý. SEO mũ trắng không chỉ là làm theo hướng dẫn, mà nhằm đảm bảo rằng nội dung được lập chỉ mục sẽ là nội dung mà người tìm kiếm sẽ nhìn thấy khi vào website.
Mũ trắng nói chung tạo nội dung cho người dùng, không phải cho công cụ tìm kiếm, và sau đó làm cho nội dung dễ dàng truy cập đến nhện web hơn là cố gắng để trò chơi thuật toán. SEO mũ trắng là theo nhiều cách tương tự như phát triển web nhằm thúc đẩy khả năng tiếp cận, mặc dù hai bên không giống nhau.
SEO mũ trắng chính là hiệu quả tiếp thị, những nỗ lực để cung cấp chất lượng nội dung cho một đối tượng nào đó đã yêu cầu các nội dung có chất lượng.
Black hat SEO nỗ lực để nâng cao thứ hạng bằng cách không được chấp thuận của các công cụ tìm kiếm, hoặc liên quan đến việc lừa dối. Một kỹ thuật mũ đen sử dụng văn bản được ẩn, hoặc là văn bản có màu tương tự như nền, trong một ẩn div, hoặc vị trí xa khỏi màn hình. Một phương pháp khác là cho một trang khác nhau tuỳ thuộc vào việc trang đang được yêu cầu của một người con người hoặc một công cụ tìm kiếm, một kỹ thuật được gọi là che đậy(cloaking) .
Công cụ tìm kiếm có chặn trang web khi phát hiện ra các trang web sử dụng phương pháp mũ đen, bằng cách giảm thứ hạng hoặc loại trừ ra khỏi cơ sở dữ liệu của họ hoàn toàn. Hình phạt như vậy có thể được áp dụng bằng thuật toán tự động của công cụ tìm kiếm, hoặc bằng cách xem xét lại trang web bằng tay. Một ví dụ nổi tiếng là tháng 2 năm 2006 Google loại bỏ cả hai website: BMW Đức và Ricoh Đức sử dụng các hành vi lừa đảo. Cả hai công ty nhanh chóng xin lỗi, cố định các trang web vi phạm, và đã được khôi phục vào danh sách của Google.
Là một sách lược tiếp thị
SEO không nhất thiết phải là một chiến lược thích hợp cho mọi trang web. Chiến lược tiếp thị Internet khác có thể mang lại hiệu quả hơn nhiều, tùy thuộc vào của mục tiêu của chủ nhân trang web. Một chiến dịch tiếp thị Internet thành công mang lại lưu lượng truy cập lớn thông qua các kỹ thuật tối ưu hóa và không phải trả tiền quảng cáo, nhưng nó cũng có thể bao gồm việc sử dụng các quảng cáo trả tiền trên công cụ tìm kiếm và các trang khác. Xây dựng các trang web chất lượng cao giúp mang lại sự tương tác cao với người dùng và có thể giữ cho công cụ tìm kiếm luôn lập chỉ mục các trang web. Cài đặt chương trình Analytics giúp chủ sở hữu trang web đo lường sự thành công của họ, và cải thiện tỷ lệ chuyển đổi khách hàng của trang web .
SEO có thể tạo ra một lợi tức đầu tư. Tuy nhiên, công cụ tìm kiếm luôn thay đổi thuật toán của họ, và không có gì bảo đảm điều này không gây bất lợi cho chủ nhân trang web. (Một số trang web mua bán như eBay có thể là một trường hợp đặc biệt cho việc này, Ebay có thể thông báo khi các thuật toán xếp hạng sẽ thay đổi một vài tháng trước khi thay đổi thuật toán). Do sự thiếu đảm bảo và thiếu chắc chắn, một doanh nghiệp mà chủ yếu dựa vào công cụ tìm kiếm thì lưu lượng truy cập có thể bị tổn thất lớn nếu các công cụ tìm kiếm dừng gửi khách truy cập. Các công ty kinh doanh dựa chủ yếu vào website cần nên giải phóng mình khỏi sự phụ thuộc vào công cụ tìm kiếm. Seomoz.org một công ty hàng đầu thế giới về SEO đã đề nghị, “tiếp thị tìm kiếm, chỉ là một phần phần rất nhỏ của lưu lượng truy cập của từ các công cụ tìm kiếm ..” Thay vào đó, nguồn chính của họ là các liên kết từ các website khác.
Thị trường quốc tế
Thị phần của các công cụ tìm kiếm thay đổi theo từng thị trường, cũng như sự cạnh tranh. Năm 2003, Danny Sullivan nói rằng Google đại diện cho khoảng 75% của tất cả các công cụ tìm kiếm. Trên các thị trường bên ngoài nước Mỹ thị phần của Google thường lớn hơn, và Google vẫn là công cụ tìm kiếm có sự chi phối lớn nhất của năm 2007. Năm 2006 , Google đã có một thị phần 85-90% ở Đức. Trong khi có hàng trăm các công ty SEO ở Mỹ tại thời điểm đó, chỉ có khoảng năm ở Đức. Tháng 6 năm 2008, thị phần của Google tại Vương quốc Anh đã được gần 90% theo tạp chí Hitwise . Đó là thông số thị phần ở một số quốc gia.
Tính đến năm 2011, chỉ có một vài thị trường lớn mà Google không phải là công cụ tìm kiếm hàng đầu. Trong hầu hết trường hợp, khi Google không phải là hàng đầu trong một thị trường nhất định, đó là do tụt hậu so với các đối thủ địa phương. Đáng chú ý nhất là những thị trường như: Trung Quốc, Nhật Bản, Hàn Quốc, Nga và Cộng hòa Séc, nơi tương với các công cụ tìm kiếm Baidu , Yahoo! Nhật Bản , Naver , Yandex và Seznam là dẫn đầu thị trường.
Để thành công trong việc tối ưu hóa cho các thị trường quốc tế cần có dịch thuật chuyên nghiệp cho các trang web, đăng ký một tên miền hàng đầu trong thị trường mục tiêu, và máy chủ web cung cấp một địa chỉ IP địa phương . Còn lại các yếu tố cơ bản của tối ưu hóa tìm kiếm cơ bản là giống nhau, bất kể ngôn ngữ.
Tiền lệ pháp lý
Ngày 17 Tháng Mười 2002, SearchKing nộp đơn kiện tại tòa án quận Western District of Oklahoma Hoa Kỳ, chống công cụ tìm kiếm Google. Lý do SearchKing yêu cầu bồi thường là chiến thuật của Google để ngăn chặn spamdexing tạo ra sự gây nhiễu có hại trong quan hệ hợp đồng của họ. Ngày 27 tháng 5 2003, tòa án cấp quận đã bác bỏ những khiếu nại vì SearchKing “đã không thể đưa ra các giải trình có cơ sở trong việc đòi bồi thường”.
Trong tháng 3 năm 2006, KinderStart đệ đơn kiện chống lại Google trên bảng xếp hạng công cụ tìm kiếm. Trang web của Kinderstart đã được gỡ bỏ từ chỉ mục của Google trước khi vụ kiện và số lưu lượng truy cập đến trang web đã bị giảm tới 70%. Ngày 16 tháng 3 năm 2007 của tòa án phía bắc của California ( San Jose Division) bác bỏ đơn khiếu nại KinderStart, và xử phạt luật sư của KinderStart, buộc ông này phải trả một phần chi phí của vụ kiện.
Comments[ 0 ]
Đăng nhận xét