anti ddos
  1. Thành viên Diễn đàn IDichvuSEO chung tay cùng cả nước đẩy lùi dịch Sars-CoV2. Hạn chế ra ngoài, đeo khẩu trang đúng cách, giữ khoảng cách với người khác, vệ sinh nhà cửa, rửa tay thường xuyên, khai báo y tế khi có biểu hiện bệnh.
    Việt Nam quyết thắng đại dịch!
    Dismiss Notice

Anh em giúp khắc phục dùm lỗi robots.txt cái!

Thảo luận trong 'Hỏi đáp - Trợ giúp SEO' bắt đầu bởi haiphamqb, 6 Tháng mười 2012.

Lượt xem: 12,550

  1. bmwhanoi

    bmwhanoi Thành viên

    Bài viết:
    52
    Đã được thích:
    10
    Vậy như thế này có oke ko bác ?
    PHP:
    # robots.txt generated at http://www.mcanerin.com
    User-agent: *
    Disallow:
    Disallow: /admin/
    Sitemaphttp://raovattoanquoc.info/sitemap.html
    vì em ko cho nó rot vào admin mà thôi :S
    như thế đã chuẩn chưa để em up lun vào host hả bác Thành :S
     
  2. Asahoo1

    Asahoo1 Dự bị

    Bài viết:
    0
    Đã được thích:
    1
    Bác k cần disallow phần nào nữa à, thế thôi chắc là OK rồi.

    PS: bác có cần phải kêu hẳn tên em ra thế k ạ :(
     
    bmwhanoi thích bài này.
  3. bmwhanoi

    bmwhanoi Thành viên

    Bài viết:
    52
    Đã được thích:
    10
    hêh, thaks bác cái vì cái tội quá nhiệt tình :dabanh:
    e kêu tên bác vì bác đang tổ chức cuộc thi seo tên thành viên mà. Có ai đó biết bác pro muốn tìm hiểu, kiểu j chả check nguyễn tất thành. Thế là bác có thêm 1 click mới, hihi!
    Chúc bác giật top nhé!
     
    Asahoo1 thích bài này.
  4. Asahoo1

    Asahoo1 Dự bị

    Bài viết:
    0
    Đã được thích:
    1
    ặc ặc, bác lại cứ réo tên em làm gì ạ :(

    em k muốn nối tiếng đâu :(
     
    seoerlomo thích bài này.
  5. seoerlomo

    seoerlomo Dự bị

    Bài viết:
    1
    Đã được thích:
    0
    Đoạn sitemap tới web kia có ưu điểm gì không bác
     
  6. vpreals

    vpreals Dự bị

    Bài viết:
    2
    Đã được thích:
    0
    Mình bị lỗi Crawl Delay 20 trong file robots.txt. Mình kiểm tra google webmaster tool rồi. Nó bị như sau:
    User-agent: *
    Crawl-Delay: 20
    Mình ko sửa dươc lỗi này. Có bạn nào giúp mình không ?
     
  7. trangphucdien

    trangphucdien Thành viên

    Bài viết:
    112
    Đã được thích:
    36
    Vào edit file robóts.txt lại, bỏ dòng đó đi là được mà bạn.
     
  8. lmahanoi

    lmahanoi Thành viên

    Bài viết:
    84
    Đã được thích:
    21
    Theo mình bạn chỉ cần đơn giản File Robot.txt như sau
    User-agent: *
    Allow: /
    Sitemap: Link website/sitemap.xml
    Sau đó Up load File Robot.txt lên mục File Manager hoặc public_html của worpress
    - Mình thấy lỗi ở trên chưa chắc là do File Robot.txt mà có thể là do địa chỉ Ip Hosting của bạn nhà cung cấp đang chặn ở nước ngoài dẫn đến Robot.txt không Index được. Nếu bị chặn sẽ ảnh hưởng rất nhiều kết quả seo của bạn. Bạn liên hệ với đơn vị cung cấp hosting xem. Chúc bạn thành công !
     
    lysons thích bài này.
  9. lysons

    lysons Thành viên

    Bài viết:
    135
    Đã được thích:
    19
    Trường hợp của mình cũng có thể như bác nói, mình liên hệ hosting thì kêu ok, file robots của mình thì cũng không vấn đề gì. Cuối cùng chẳng biết nó bị lỗi gì, mà tìm cách gỡ hoài vậy chưa thấy được. Cụm từ khóa seo ra đi thì mấy tháng rồi không có trong tìm kiếm google, sếp thì hỏi sao không thấy khách gọi. :(.
    Bác xem giúp mình site:
    Mã:
    bachkhoadienlanh.com.vn 
    nó có bị vấn đề gì không ạ

    upload_2018-4-17_7-30-47-png.png

    P/s: Có cao nhân nào đi ngang qua cho mình xin cái trợ giúp. Cảm ơn các bác nhiều.
     

    Các file đính kèm:

  10. shopquankaki

    shopquankaki Thành viên nhiệt tình

    Bài viết:
    779
    Đã được thích:
    130
    click vào sitemap trong wmt xem thế nào, xem trong hosting còn file robots.txt nào đang chặn bot google ko.
     

Chia sẻ trang này