一歩進んだページ管理ここでは検索ロボットを回避したり、逆に指定したキーワードを認識させる方法。 丸見えディレクトリの回避、オリジナルなエラーページ設定などについて記述しています。
自分の運営するwebサイトが検索ロボットから検索されたくない場合は robot.txtやrobots−metaタグで検索ロボットによる 索引化を回避できる。 しかし、ここで紹介する方法を実践したとしても 確実に索引化を回避できるわけではない事に注意してください。 METAタグ
robot.txtをルートに設置できない場合は
htmlファイルのHead部分にrobots−metaタグを挿入すればOK。
アクセスを増やしたい場合は、この部分にヒットして欲しいキーワードや説明文を入れましょう。
検索ロボットにキーワードを認識させる場合<meta name="keywords" content="keyword1,keyword2,keyword3,…"><meta name="description" content="ページの説明文"> 例 <meta name="keywords" content="自動車,パソコン,ゲーム"> <meta name="description" content="車とパソコン、ゲーム関係のホームページです。"> 自動登録回避の記述方法<meta name="robots" content="索引化、追跡の可否">例
ついでにワンポイント(文字化けを防ぐ方法)
(Windows - ShiftJISの場合) (ISO文字コードの場合) (EUC文字コードの場合) .htaccessファイル
サイトを荒らされたりする場合には「.htaccess」(先頭にドットが付きます)ファイルを用いて
アクセス制御を行う方法が手軽です。編集した.htaccessファイルを
制御したいディレクトリにアップロードするだけでOKです。
(残念ながら多くの無料サーバーでは利用できません)
・特定のアドレスからのアクセスのみ許可する場合 「210.132.142.xxx」からのアクセスのみを許可する場合 order deny,allow deny from all allow from 210.132.142. 「210.143.23.32」「206.142.25.15」 「202.132.26.18」からのアクセスのみを許可する場合 order deny,allow deny from all allow from 210.143.23.32 206.142.25.15 202.132.26.18 ・特定のアドレスからのアクセスを拒否する場合 「210.143.23.32」「206.142.25.15」 「202.132.26.18」からのアクセスを拒否する場合 order allow,deny allow from all deny from 210.143.23.32 206.142.25.15 202.132.26.18 ・ディレクトリ丸見えを防ぐ Options -Indexes ・エラーページを変更する例 ErrorDocument 401 /401.html ErrorDocument 403 /403.html ErrorDocument 404 /404.html ErrorDocument 500 /500.html 注意事項 ・orderの部分を間違えると無意味な指定になる事があります。 deny,allow 制限してから許可する allow,deny 許可してから制限する ・拒否したいアドレスが仮に「210.143.23.20」だとしても 次回のアクセス時には、IPアドレスが変化している可能性があるので 指定はプロバイダごと「210.143.23.」で行うほうが良いのですが、 同じプロバイダを利用しているというだけで、アクセスできなくなる人が 出来てしまう事を忘れてはいけません。またプロキシなどを利用された場合は そちらのIPも加えて拒否する設定が必要でしょう。 ・第3者が.htaccessファイルを閲覧できないように <Files .htaccess> order deny,allow deny from all </Files> という記述を加えておくほうが良いです。 ページの先頭 トップページ ニードフォースピード パソコン ファルコム 掲示板 Lightblue |