受 robots.txt 限制的 URL什麼意思?怎麼解決

大家好。前輩們~救命啊.......
我最近做了一個網頁,
http://republica-sino-hispana.blogspot.com/

也申請了Google的網站管理員工具。在這個網頁裡,有個地方顯示著: 網頁檢索錯誤:
受 robots.txt 限制的 URL 43個
找不到 1個

這到底是什麼意思呢?
是不是 受 robots.txt 限制的 URL 就沒辦法在網路上被搜尋到?
要怎麼解決?

請教教我...拜託..謝謝!

Update: Hi, 七里香,感謝您熱心的回答。現在我想要問一個很白痴的問題了,您說,web 伺服器的根目錄下,只要還有 robots.txt 檔,刪除掉就好了,請問:那個web 伺服器的根目錄在哪兒啊?!唉~sorry sorry... 實在是電腦白痴~
唉~我該不會真得變成拒絕往來戶吧?!可是我申請 AdSense有通過耶,網站內容也多為普通的文字檔...怎麼會這樣?
Update 2: 七里香,超感謝您的。謝謝您對我這麼有耐心。想再請教一下,歹勢歹勢..又有問題了。...
http://help.blogger.com/bin/answer.py?answer=41438&topic=8917
在連線的地方,為什麼是不選 FTP 而要選 SFTP呢?
還有,下面這些它要我填,你可以幫我看填得對不對嗎?
FTP伺服器:是blogger.com嗎?還是blogspot.com?
Blog URL:http://republica-sino-hispana.blogspot.com/
Update 3: 還有,下面這些的說明我都看到快瞎了,還是搞不清是要填什麼:
FTP路徑 & Blog檔案名稱 & 資訊提供檔案名稱 & FTP使用者名稱 ...
又要麻煩你了,謝謝謝謝謝.......
1 answer 1