Đồ án tìm hiểu SEO và thiết kế website bán hàng

37 763 2
Đồ án tìm hiểu SEO và thiết kế website bán hàng

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

Thông tin tài liệu

Đồ án tìm hiểu SEO và thiết kế website bán hàng giành cho các bạn sinh viên năm cuối đang thực hiện đồ án để ra trường. Đây là bộ tài liệu quan trọng và đầy đủ về SEO website cũng như hướng dẫn các bạn tự xây dựng một website thương mại điện tử.

CHƯƠNG I: TÌM HIỂU SEO 1.1. GIỚI THIỆU: SEO được viết tắt của Search Engines Optimization được dịch sang tiếng Việt là tối ưu hóa website với công cụ tìm kiếm. Từ khi các công cụ tìm kiếm ra đời đã đưa ra rất nhiều thuật toán sắp xếp nhằm đem lại những thông tin hữu ích cho người dùng, các thuật toán này được lưu hành bí mật nên không có ai biết được cách thức làm việc của các thuật toán này như thế nào nhưng những người làm SEO website dùng những suy đoán và kinh nghiệm của mình để tìm cách đưa được website của mình lên thứ hạng mong muốn. Ngoài đưa website lên top thì hiện nay google còn hỗ trợ đưa các thành phần trong website lên như video, image. 1.2. LỊCH SỬ: Đầu phiên bản của thuật toán tìm kiếm dựa vào quản trị trang web cung cấp thông tin như các thẻ meta từ khoá, hoặc tập tin chỉ mục như ALIWEB. Thẻ meta cung cấp một hướng dẫn đến nội dung của mỗi trang. Sử dụng dữ liệu meta vào các trang chỉ mục được tìm thấy sẽ được ít hơn đáng tin cậy, tuy nhiên, vì những sự lựa chọn của webmastermà các thẻ meta có sự chính xác trong khả năng updata website lên má chủ tìm kiếm. Những dữ liệu không chính xác, không đầy đủ, và không nhất quán trong thẻ meta có thể gây ra sự xếp hạng không đúng vị trí cho các tìm kiếm không liên quan. Việc cung cấp nội dung đựoc tối ưu hóa và một số thuộc tính trong mã nguồn HTML đối với một trang web cần phải chính xác để có được kết quả tốt trên công cụ tìm kiếm. Bằng cách dựa quá nhiều vào các yếu tố như mật độ từ khóa đó được độc quyền trong vòng kiểm soát của một webmaster, công cụ tìm kiếm sớm bị lạm dụng vào thao tác xếp hạng. Để cung cấp kết quả tốt hơn cho người dùng của họ, công cụ tìm kiếm đã phải thích ứng để đảm bảo kết quả của các trang đã cho thấy các kết quả tìm kiếm có liên quan nhất, thay vì các trang không liên quan nhồi với từ khoá nhiều bởi webmaster vô đạo đức. Các công cụ tìm kiếm đã phản ứng lại bằng cách phát triển phức tạp hơn thuật toán xếp hạng, có tính đến các yếu tố bổ sung mà gây nhiều khó khăn cho quản trị web để thao tác. Sinh viên ở Đại học Stanford,, Larry Page và Sergey Brin, đã phát triển “backrub”, một công cụ tìm kiếm dựa trên một thuật toán toán học để đánh giá sự nổi tiếng của các trang web. Và đã cho ra đời thuật toán Pagẻank, PageRank là một thuật toán đánh giá khả năng liên kết sâu và rộng của website đó. Thuật toán PageRank ước tính khả năng của một trang nhất định qua yếu tố người sử dụng web vào xem website và số người ngẫu nhiên vào website và các liên kết từ website đó đến các website khác và ngược lại. Như vậy, PageRank được xác định yếu tố ngẫu nhiên truy cập cho người dùng cao hơn. Thực tế thì lại khác, Pagerank hiện nay chỉ là một yếu tố xác định thứ hạng trên công cụ tìm kiếm thông qua mức độ phổ biến liên kết và số người dùng ngẫu nhiên truy cập. Page và Brin thành lập Google vào năm 1998. Google ngày càng thu hút người dùng tìm kiếm và sử dụng ngày càng tăng do có nhiều người thích tính thiết kế website đơn giản của google.Các yếu tố trang web như PageRank và phân tích siêu liên kết được coi là những yếu tố quan trọng (như tần số từ khóa, thẻ meta, tiêu đề, liên kết và cấu trúc trang web) để cho phép website xuất hiện trên các công cụ tìm kiếm. Nhiều trang web bắt đầu tập trung vào việc trao đổi, mua, bán và các liên kết, hay hơn hết là việc spam liên kết website, thường đựoc xây dựng trên quy mô lớn để đạt đựoc thứ hạng cao trên công cụ tìm kiếm google. Đến năm 2004, công cụ tìm kiếm google đã kết hợp một loạt các yếu tố không tiết lộ trong các thuật toán xếp hạng của họ để giảm tác động của các thao tác liên kết. Google nói : các thuật toán đựoc sử dụng hơn 200 cách khách nhau để xác định thứ hạng website trên công cụ tìm kiếm để giảm thiểu các thủ thuật can thiệp thứ hạng google. Đáng chú ý như Rand Fishkin, Barry Schwartz, Aaron Wall and Jill Whalen, đã nghiên cứu các phương pháp khác nhau để tối ưu hóa công cụ tìm kiếm, và đã công bố ý kiến của mình tại các diễn đàn trực tuyến và website trao đổi về SEO, cùng nhìn nhận về sự quan trọng của website trên công cụ tìm kiếm… Năm 2005, Google bắt đầu cá nhân hóa những kết quả tìm kiếm cho mỗi người dùng. Tùy thuộc vào lịch sử của họ về tìm kiếm trước đây, Google crafted ghi nhận kết của tìm kiếm của người dùng. Năm 2008, Bruce Clay nói rằng “xếp hạng là chết” vì tìm kiếm được cá nhân hoá. Nó sẽ trở thành vô nghĩa như thế nào khi mỗi người chỉ thấy mỗi kết quả khác nhau và độc lập. Năm 2007, Google công bố một chiến dịch chống lại các liên kết trả tiền (buy/sell links). Ngày 15 tháng 6 năm 2009, Google tiết lộ rằng họ đã thực hiện các biện pháp để giảm thiểu những tác động của PageRank do sử dụng các thuộc tính nofollow trên các liên kết. Matt Cutts, Một phần mềm nổi tiếng kỹ sư tại Google, tuyên bố rằng Google Bot sẽ không theo các liên kết có thẻ ”nofollow” để ngăn chặn việc sử dụng liên kết bừa bãi hay liên kết các website không tương thích, tránh cho việc thất thoát thứ hạng và đánh giá SEO. Để tránh việc thất thoát ranking ở trên,Các nhà phát triển web nên tránh sử dụng Javascript để giảm thất thoát thứ hạng và thẻ ”nofollow” để nâng tầm quan trọng page rank lên. Ngoài ra một số giải pháp đã được đề xuất bao gồm việc sử dụng iframes, Flash và Javascript vẫn nên hạn chế. Trong tháng 12 năm 2009 Google tuyên bố sẽ được sử dụng lịch sử tìm kiếm web của tất cả người dùng của mình để xếp hạng kết quả tìm kiếm. Tìm kiếm theo thời gian thực được giới thiệu vào cuối năm 2009 trong một nỗ lực để làm cho kết quả tìm kiếm kịp thời và có liên quan.Với sự phát triển của các công nghệ truyền thông, kết quả tìm kiếm thời gian thực giúp cho website hiện thị nhanh chóng trên công cụ tìm kiếm một cách nhanh chóng, giúp người tìm kiếm nắm bắt hiện tại thông tin trong môi trường siêu thông tin. Năm 2010: Khởi đầu là việc cho thay đổi hình nền trang chủ Google (không được yêu thích cho lắm, vì người dùng quen với giao diện đơn giản của Google quá rồi) Google Instant – Tìm kiếm nhanh chóng với suggest box tích hợp sẵn trên công cụ tìm kiếm Google (đặc biệt trên Google Chrome). Sự thay đổi trong Google Search Images – Tìm kiếm hình ảnh: Được bố trí theo kiểu lát gạch: Giúp bạn nhìn thấy được nhiều hình ảnh hơn Giao diện Scroll linh hoạt: Cho phép bạn xem đến 1000 bức ảnh mà không phải di chuyển qua lại giữa các trang như trước nữa Larger thumbnail previews: Những bức ảnh xuất hiện ở trang kết quả tìm kiếm được hiển thị to hơn và có độ phân giải nét hơn trước Một cửa sổ sẽ xuất hiện khi bạn di chuột đến một hình ảnh được thu nhỏ ở trang kết quả tìm kiếm, cửa sổ này cho phép bạn xem hình ảnh đó với kích thước lớn hơn, hiển thị nhiều thông tin hơn về hình ảnh hơn và bao gồm cả tính năng xem những hình ảnh tương tự khác. Một khi bạn nhấp chuột vào một hình ảnh tại trang kết quả, hình được được chọn sẽ hiển thị đúng kích cỡ và trang web/blog chứa ảnh đó cũng sẽ xuất hiện phía sau nhưng mờ hơn…. Năm 2011: Đầu năm là sự nổ rộ việc công bố: Google sẽ mở chiến dịch chống website spam trong năm 2011 và Google tuyên chiến với các Content Farm, điển hình của chiến dịch này đó là google cho ra đời thuật toán Panda. Năm 2012: là năm mà các thuật toán của google lần lượt ra đời như penguin và zerbra, năm này là năm có nhiều biến động về thuật toán nhất của google. 1.3. MỤC TIÊU CẦN ĐẠT ĐƯỢC. 1.3.1. Về lý thuyết: Giúp mọi người hiểu được cách thức làm việc của một bộ máy tìm kiếm(SE), có thể hiểu cách thức để đưa một website đạt được kết quả cao trên các công cụ tìm kiếm(SE). 1.3.2. về thực hành: Biết cách phân tích độ khó và độ cạnh tranh của một từ khóa, có thể đưa một vài từ khóa lên top của các công cụ tìm kiếm, nhất là đưa lên top các công cụ tìm kiếm phổ biến nhất như google. Trong phần thực hành này chúng tôi sẽ thực hiện đưa một vài từ khoá lên top của công cụ phổ biến nhất tại Việt Nam google. 1.4. PHƯƠNG PHÁP NGHIÊN CỨU – KẾ HOẠCH LÀM VIỆC. Phương pháp nghiên cứu và giải quyết vấn đề. Về phương pháp nghiên cứu thì chúng ta phải kết hợp cả lý thuyết và thực hành vì SEO là một phần của marketing online nên để kết quả SEO được cho là tốt thì các từ khoá phải là các từ mà có nhiều người tìm kiếm nhất và kết quả đạt được là website được SEO phổ biến với mọi người xét cho cùng thì làm SEO website cũng chỉ là dùng thủ thuật để đưa website đạt thứ hạng cao nên cách làm là học hỏi những website đã đạt thứ hạng cao chúng ta kiểm tra xem cách thức họ làm như thế nào, kiểm tra các thông số cơ bản như số link liên kết trỏ đến, nguồn link từ đâu, mật độ từ khóa ra sao và cấu trúc onpage chuẩn như thế nào. 1.5. BỐ CỤC. Những nội dung chính mà chúng ta sẽ trình bày bao gồm. Đầu tiên là giới thiệu chung về SEO cũng như lịch sử ra đời và hình thành lĩnh vực này, thứ hai là chúng ta cùng tìm hiểu về cách thức hoạt động của các bộ máy tìm kiếm, thứ ba chúng ta sử dụng các kiến thức lập trình để tối ưu hoá một website chuẩn SEO, cuối cùng là kết luận và đưa ra được những mục tiêu đã đạt được sau khi hoàn thành đề tài. TỔNG QUAN BỘ MÁY TÌM KIẾM: Bộ máy tìm kiếm(Search Engine - viết tắt là SE) là công cụ được các nhà cung cấp xây dựng để cho người sử dụng có thể tìm kiếm thông tin trên môi trường internet bao la. Là nơi mà bạn tìm thấy bất kỳ thông tin nào bằng cách gõ các cụm từ hoặc từ tìm kiếm. Bộ máy tìm kiếm sẽ trả về một danh sách kết quả tìm kiếm là các trang web mà bộ máy tìm kiếm đã tổng hợp. Cách bộ máy tìm kiếm làm việc: Bộ máy tìm kiếm làm việc bằng cách lưu trữ thông tin về nhiều trang web. Những thông tin này sẽ được thu thập bởi các Spider (chính là Web crawling) và nội dung của mỗi trang sẽ được phân tích để bộ máy tìm kiếm quyết định nên index cái nào (ví dụ, những từ khoá được thu thập từ các titles, heading hay một số trường đặc biệt gọi là meta tags) để trả về những thông tin mà người tìm kiếm mong muốn nhất. Dữ liệu về những trang Web sẽ được lưu trữ tại các cơ sở dữ liệu chỉ mục để sử dụng cho những lần truy vấn sau. Một số bộ máy tìm kiếm, như Google chẳng hạn, sẽ lưu trữ toàn bộ hay một phần trang gốc (được xem như một cache) cũng như thông tin về trang Web đó, trái lại với một số bộ máy tìm kiếm khác, như AltaVista, sẽ lữu trữ tất cả các từ của những trang mà nó tìm thấy. Các bộ máy tìm kiếm nổi tiếng: Ở Việt Nam có đến 95% người sử dụng "Google". Nói đến tìm kiếm thì người ta nghĩ ngay đế google chứ không nghĩ đến bất cứ bộ máy tìm kiếm nào khác, ở Việt Nam có câu “dân ta phải biết sử ta, cái gì không biết thì tra google”. Ngoài ra, có những bộ máy tìm kiếm nổi tiếng như Yahoo, Bing, Yandex(Phổ biến ở Nga), Baidu(phổ biến ở Trung Quốc) CẤU TẠO CHUNG CỦA BỘ MÁY TÌM KIẾM: Bộ máy tìm kiếm được tạo thành bởi 3 yếu tố chính: Spider, Index và Query. Spider: Là một con robot được các bộ máy tìm kiếm lập trình bằng các thuật toán có nhiệm vụ len lỏi khắp nơi trên mạng để tìm kiếm, ghé thăm những website mới để lập chỉ mục, đưa website vào danh mục của nó. Các spider rất quan tâm đến các đường liên kết(Hyperlink), do thông qua các đường liên kết này, nó có thể tiếp tục đến các trang web khác. Index: Thu nhận tất cả thông tin mà các spider mang về và dùng một thuật toán vô cùng phức tạp để lập chỉ mục tất cả dữ liệu này theo từng từ, cụm từ. Việc lập chỉ mục này sẽ giúp các bộ máy tìm kiếm nhanh chóng tìm ra và tiếp cận nguồn dữ liệu khổng lồ mà nó lưu giữ. Ngoài việc lập chỉ mục, các phần mềm index còn sử dụng nhiều thuật toán khác nhau để phân tích, đánh giá các trang web và ấn định thứ hạng cho chúng. Nhờ vào đó bộ máy tìm kiếm đánh giá tầm quan trọng của mỗi trang web đối với người dùng đang tìm kiếm. Query: Là những gì người dùng nhìn thấy hay còn gọi là giao diện khi sử dụng bộ máy tìm kiếm. Nó bao gồm ô để gõ từ khóa và ra lệnh tìm kiếm. Bộ máy tìm kiếm sẽ đưa ra những trang web phù hợp, liên quan đến từ khóa của bạn. Tuy vậy, thực chất thì phần mềm query không trực tiếp tìm kiếm các trang web, nó chỉ lấy ra các dữ liệu đã được phần mềm index lưu trữ, đánh giá và sắp xếp. Đó là tất cả những gì bạn cần biết về công cụ tìm kiếm. Một cách ngắn gọn nhất, nó làm mọi công việc khó khăn là tập hợp, phân tích và sắp xếp các trang web. Bạn chỉ việc gõ từ hoặc cụm từ cần tìm và ra lệnh tìm kiếm, các công cụ tìm kiếm sẽ đưa ra danh sách kết quả phù hợp với yêu cầu của bạn. FILE ROBOT : File Robots.txt là gì? Khi một search engine tìm đến Website nào đó, nó sẽ tìm đến file robots.txt đầu tiên. File robots.txt cho search engine đó biết rằng, Website này có thể index hoặc không (tùy theo lệnh được viết trong file robots.txt). Thực chất, file robots.txt là một tập tin văn bản đơn giản (không chứa mã HTML) được đặt trong thư mục gốc của web site, ví dụ *http://muabansaigon.net/robots.txt. Sau đây là cách tạo ra file robot Các dòng lệnh trong file này có cấu trúc như sau: User-agent: googlebot Disallow: /cgi-bin/ Trong đó User-agent: là đại diện của một search engine, Googlebot là spider của Google. Trong ví dụ này, chỉ các spider của Google là được phép index web site. Disallow: là không cho phép thực hiện điều gì đó. ở ví dụ trên là không cho phép các spider index thư mục "cgi-bin" trong web site. Một ví dụ nữa: User-agent: googlebot Disallow: /images Tất cả các trang nằm trong thư mục images sẽ không được index. Nếu bạn muốn tất cả các search engine có thể index web site của bạn, nhưng không được index các trang trong thư mục "cgi-bin" thì sử dụng lệnh sau: User-agent: * Disallow: /cgi-bin/ Những điều nên tránh: + Không sử dụng các chú thích trong file robots.txt, nó có thể làm cho các spider của search engine bị lầm lẫn. Ví dụ: "Disallow: support # Don't index the support directory" might be misinterepreted as "Disallow: support#Don't index the support directory". + Không được để khoảng trắng ở đầu dòng lệnh, ví dụ: User-agent: * Disallow: /cgi-bin/ +Không thay đổi trật tự của các dòng lệnh. Ví dụ: Disallow: /support User-agent: * + Không sử dụng quá một thư mục trong dòng lệnh Disallow. Ví dụ: User-agent: * Disallow: /support /cgi-bin/ /images/ các search engine không hiểu định dạng trên. bạn nên viết thế này: User-agent: * Disallow: /cgi-bin/ Disallow: /images/ +Phải chắc chắn các mệnh đề, từ sử dụng trong lệnh là đúng. Ví dụ, thư mục của bạn là "cgi-bin" (viết thường, không viết hoa), nhưng khí vào lệnh, bạn lại viết là "Cgi-Bin" thì các spider sẽ không hiểu. + Không nên dùng lệnh Allow trong file robots.txt, bởi vì trong web site của bạn chắc chắn sẽ có một số trang hoặc một số thành phần bạn không muốn bị người khác "nhòm ngó". nếu bạn sử dụng lệnh Allow, tất cả mọi ngóc ngách trong website của bạn sẽ được index toàn bộ! Index – bộ lập chỉ mục: Index là cập nhật dữ liệu vào chỉ mục của bộ máy tìm kiếm, Nói cách khác là website đã được bộ máy tìm kiếm lưu trữ lại thông tin, nghe thì có vẻ dễ dàng nhưng các bộ máy tìm kiếm có quá trình index rất phức tạp. SE có một phụ trách đi lấy dữ liệu này được gọi là robot hay còn gọi là spider. Các robot sử dụng một quy trình dựa trên thuật toán xác định các trang web để thu thập dữ liệu, tần số và số lượng trang để tìm nạp từ mỗi trang web. SE cập nhật dữ liệu nhanh hay chậm phụ vào website của chúng ta, một website muốn được index nhanh cần phải up bài thường xuyên, lượng truy cập đều… HỆ THỐNG RANK: Hệ thống rank giống như thang điểm để các công cụ tìm kiếm đánh giá chất lượng của website mà nó thu thập, tôi xin liệt kê 2 hệ thống rank thông dụng đó là google pagerank và alexa pagerank. Google PageRank : Google PageRank là hệ thống kiểm định giá trị liên kết nhận được, dựa vào số lượng và chất lượng liên kết, để quyết định tầm quan trọng của trang web. Ngoài ra PageRank còn tính dựa trên những yếu tố khác mà Google không công khai. Ngoài ra, đối với Google, PageRank là một trong những yếu tố then chốt (then chốt, không phải duy nhất và quan trọng nhất) ảnh hưởng đến vị trí xếp hạng trang web trên các trang kết quả tìm kiếm (SERPs). Tuy nhiên trang A có PageRank cao chưa chắc xếp hạng tốt hơn trang B có PageRank thấp hơn nếu trang A có chủ đề và nội dung không khớp với từ khóa người dùng gõ vào ô tìm kiếm Google. PageRank có giá trị 0-10 và có thể nhìn thấy thông qua add-on SEOquake. Google sẽ cập nhật PR 3 tháng 1 lần, ấn định vào 1 ngày nào đó. PageRank của từng trang trong website độc lập nhau gọi là Internal PageRank (thay đổi thường xuyên, có thể là một tuần vài lần và không nhận thấy qua SEOquake). Alexa rank: Alexa Rank là thước đo mức độ phổ biến của các website. Chỉ số thứ hạng của mỗi website được Alexa kết hợp đánh giá từ 2 yếu tố là số trang web người dùng xem (Page Views) và số người truy cập website (traffic). Các số liệu thống kê của Alexa dựa trên những dữ liệu thu thập từ người dùng cài đặt Alexa Toolbar. Alexa Toolbar là một tiện ích giúp người dùng lướt web, hiện có khoảng hơn 10 triệu người dùng internet trên thế giới sử dụng công cụ này. Làm thế nào để xem thứ hạng Alexa? Bạn có thể sử dụng Alexa Toolbar – thanh công cụ hỗ trợ người dùng duyệt web: >>tải Alexa Toolbar Hoặc có thể kiểm tra trực tiếp tại Alexa. Làm thế nào để tăng thứ hạng Alexa cho website? Bạn nên tiến hành các chiến dịch quảng bá website định kỳ nhằm thường xuyên thu hút khách truy cập website, tăng cao chỉ số Reach. Trong website, nên có các phần thông tin có giá trị cao, cập nhật để thu hút khách hàng thường xuyên quay lại website, tăng Page views. Bạn cần bố trí nội dung, cấu trúc website sao cho thu nhận được thật nhiều cú nhấp chuột của khách truy cập để tăng Page views nhưng vẫn mang lại cảm giác thoải mái, tiện lợi. TÌM HIỂU VỀ SEO: SEO là gì? SEO viết tắt của cụm từ Search Engine Optimization (tối ưu hóa công cụ tìm kiếm). SEO là một tập hợp các phương thức nhằm nâng cao thứ hạng của một website trong các trang kết quả của các công cụ tìm kiếm và có thể được coi là một phương pháp tiếp thị trực tuyến. Thuật ngữ SEO cũng được dùng để chỉ những người làm công việc tối ưu hóa công cụ tìm kiếm, là những nhà tư vấn đưa ra những dự án tối ưu hóa cho các website của khách hàng. Các công cụ tìm kiếm hiển thị một số dạng danh sách trong trang kết quả tìm kiếm (SERP) bao gồm danh sách kết quả có trả tiền (danh sách quảng cáo, danh sách trả tiền theo click và thường được hiển thị dưới dạng quảng cáo của nhà tài trợ) và danh sách kết quả ngẫu nhiên(tìm kiếm miễn phí), được xếp hạng và đánh giá bởi máy tìm kiếm. Mục tiêu của SEO chủ yếu hướng tới việc nâng cao thứ hạng của danh sách tìm kiếm ngẫu nhiên(miễn phí) theo một số từ khóa nhằm tăng số lượng và chọn lọc về nhu cầu tìm hiểu thông tin của khách truy cập đến trang web.Hiện trên mạng Internet có 3 công cụ tìm kiếm hữu hiệu nhất và phổ biến nhất: Google (Google Inc) Yahoo (Yahoo! Inc) Bing (Microsoft Corporation). Tại sao cần SEO? Với mục tiêu của SEO là đạt được thứ hạng tìm kiếm cao trên danh sách các kết quả được tìm thấy bới máy tìm kiếm trực tuyến dựa theo một nội dung (đại diện bởi từ khóa) tìm kiếm nào đó, một website được SEO thành công sẽ mang lại giá trị rất lớn cho công việc kinh doanh cũng như quảng cáo thương hiệu trực tuyến của doanh nghiệp bạn. Rất đơn giản hãy so sánh tỉ lệ phù hợp về nhu cầu của người sử dụng dịch vụ tìm kiếm web với một hình thức quảng cáo bất kỳ: Bạn quan tâm, bạn muốn tìm hiểu thông tin về một vài loại sản phẩm bạn có ý định mua và bạn Search. Trong khi các cách thức triển khai quảng cáo khác tới số đông quần chúng, bạn đều mang hi vọng một số lượng người xem quảng cáo nào đó đang có ý định sử dụng loại sản phẩm đang được quảng cáo. 3.1 KHẢO SÁT THÔNG TIN NGƯỜI DÙNG. Hiện nay, đa số người dùng tìm kiếm các thông tin gì đều lên công cụ tìm kiếm Google . Vì vậy SEO Google là một lựa chọn hoàn hảo cho các doanh nghiệp quảng bá thương hiệu , hàng hóa và dịch vụ của doanh nghiệp mình hiện nay. Việc đưa các từ khóa về thương hiệu, hàng hóa, dịch vụ của doanh nghiệp lên top của Google để người dùng có thể tìm thấy trên công cu tìm kiếm không phải là một chuyện dễ. Việc SEO Google cần phải có từng bước chi tiết thì mới có thể SEO hiệu quả nhất. Công việc đầu tiên của SEO Google là khảo sát website . [...]... 1 Khách hàng phải gõ vào thanh tìm kiếm Khách hàng click vào nút tìm kiếm Hiển thị trang kết quả tìm kiếm 1 khách hàng truy cập vào website 2 khách hàng gõ vào thanh tìm kiếm 3 hệ thống chuyển đến trang kết quả tìm kiếm II.1.2.3 Usecase DangKy Tên Use-Case Tác Nhân Chính Mức Tiền Điều Kiện Kích Hoạt Đảm Bảo Thành Công Chuỗi Sự Kiện Chính Ngoại Lệ DangKy KhachHang 1 Khách hàng phải truy cập vào trang... dụng các web 2.0 có PR cao và có tính ổn định CHƯƠNG III: PHÂN TÍCH THIẾT KẾ HỆ THỐNG III.1 Phân Tích III.1.1 USE-CASE DIAGRAM III.1.1.1 Đặc tả Actor Khách hàng : Khách hàng xem và mua hàng tại Website Website cung cấp nhiều chức năng cho cả khách hàng vãng lai và khách hàng là hội viên.Các chức năng phục vụ cho khách hàng nhằm giúp khách hàng có nhiều tiện ích khi xem và mua hàng như: xem tin tức, xem... Chính Ngoại Lệ Khách hàng nhập sai username và password DatHang KhachHang 1 Khách hàng phải truy cập vào trang Chi tiết sản phẩm Khách hàng click vào nút “đặt hàng Hiển thị trang đặt hàng thành công 12 khách hàng truy cập vào trang chi tiết sản phẩm 13 khách hàng click vào nút “đặt hàng 14 hệ thống kiểm tra xem là khách hàng đã đăng nhập hay chưa 15 hệ thống lưu thông tin đơn hàng xuống CSDL III.1.2.1.5... hiển thị ra ngoài website, ví dụ ta có đoạn mã Đồ án tìm hiểu SEO Đoạn mã này có nghĩa là hiển thị chữ Đồ án tìm hiểu SEO ra ngoài website với cỡ chữ heading 1 3.2.1 Chọn tên miền Tên miền “noithatdepsg.com” được cung cấp bởi nhà cung cấp tên miền công ty SPT 3.2.2 Chọn Hosting Hosting linux với băng thông 4GB và dung lượng 400MB 3.2.3 Mã nguồn phát triển Website muabansaigon.net... thể rất nhiều và bạn không thể giám sát hết hoặc phân tích hết các website này Bạn có thể tìm kiếm danh sách các từ khóa mục tiêu website bạn và liệt kê danh sách các website có thứ hạng cao trên kết quả tìm kiếm Bạn có thể xem đó là đối thủ cạnh tranh của bạn 2 Xem website đối thủ và bắt đầu phân tích những yếu tố cơ bản Sau khi xác định được đối thủ cạnh tranh – bạn vào các website đó và bắt đầu phân... của website, từ đó có phương án sửa chữa, tối ưu, nâng cấp website phù hợp cho việc SEO 3.1.1 Thành phần người sử dụng Trước khi SEO một website nào đó ta cần phải phân tích người sử dụng website này là ai, phải biết được khách hàng đến với website với mục đích gì Ví dụ: website truyentranhtiachop.com là 1 website cho người dùng đọc truyện online thành phần người sử dụng website này chủ yếu là thiếu... của bạn….( từ khóa chung mà website nào cũng thường dùng để mô tả trang chính của người ta) Tối ưu hoá tổng thể toàn website Homepage của bạn chỉ là điểm bắt đầu cho một website đa diện và đa tầng Theo đúng nghĩa, nó quan trọng để nhìn vào mỗi trang mà website của bạn chứa để bảo đảm một đồ án được sắp xếp hợp lý và chặt chẽ làm việc tốt với các cỗ máy tìm kiếm cũng như khách hàng Lưu ý những đều sau:... cập vào một file hay một thư mục của một website 3.4.1 Cập nhật nội dung Để đạt được vị trí cao trong kết quả tìm kiếm thì độ tươi mới của nội dung là một yếu tố khá quan trọng, dựa vào tần suất số lần cập nhật mà SE có thể đánh giá một website “còn sống” hay “đã chết”, chúng ta nên chú ý cập nhật thường xuyên và đều đặn nội dung và nên có những nội dung phong phú và có ích nhất 3.4.2 Quảng bá website. .. đó Chúng ta cùng view sousce ta sẽ thấy thẻ như sau : thiết kế nội thất phòng khách, thiết kế nội thất showroom, thiết kế nội thất phòng karaoke Khi search trên Google từ khoá thiết kế nội thất phòng khách” ta sẽ thấy kết quả hiển thị theo title (từ khoá liên quan được in đậm): Trong lúc tạo thẻ trên website của bạn cần lưu ý một số điểm sau: Các thẻ title giữa các trang,... và có ích cho người dùng, nếu website của chúng ta thuộc vào loại website cung cấp dịch vụ thì cần phải chú ý đến chất lượng của dịch vụ, lấy ví dụ như website thegioididong.com, admin của trang website này không sử dụng bất kỳ một phương pháp SEO nào nhưng website vẫn có số lượng lớn người truy cập, lý do là vì chất lượng của sản phẩm rất tốt và có uy tín nên người sử dụng đã bị thu hút truy cập vào . thị ra ngoài website, ví dụ ta có đoạn mã <body> <h1> ;Đồ án tìm hiểu SEO& lt;/h1> </body> Đoạn mã này có nghĩa là hiển thị chữ Đồ án tìm hiểu SEO ra ngoài website với cỡ. toán đánh giá khả năng liên kết sâu và rộng của website đó. Thuật toán PageRank ước tính khả năng của một trang nhất định qua yếu tố người sử dụng web vào xem website và số người ngẫu nhiên vào. theo các liên kết có thẻ ”nofollow” để ngăn chặn việc sử dụng liên kết bừa bãi hay liên kết các website không tương thích, tránh cho việc thất thoát thứ hạng và đánh giá SEO. Để tránh việc thất

Ngày đăng: 13/10/2014, 14:06

Từ khóa liên quan

Tài liệu cùng người dùng

Tài liệu liên quan