Robots.Txtを使用してサブドメインをブロックする方法

Webサイトは、あなたの中小企業を宣伝するだけでなく、あなたの製品とユニークな資格を紹介するのに良い方法です。 大規模なWebサイトを管理している場合は、おそらくいくつかのサブドメインを使用し、各サブドメインにはWebホスト上に独自のフォルダがあります。 検索エンジンのクローラが特定のサブドメインを解析してインデックスを付けたくない場合は、robots.txtファイルを使用してそれらをブロックできます。

1。

画面の左下隅にある[スタート]ボタンをクリックします。

2。

[スタート]メニューの下部にある[検索]ボックスに「メモ帳」と入力します。

3。

[スタート]メニューの上部にある[プログラム]セクションの[メモ帳]をクリックしてメモ帳を起動します。 新しい文書が自動的にメモ帳に作成されます。

4。

これら2行をメモ帳文書に挿入して、すべてのロボットがサブドメインを解析できないようにします。

ユーザーエージェント:*許可しない:/

5。

"Ctrl-S"を押して "名前を付けて保存"ウィンドウを開きます。

6。

[ファイル名]ボックスに「robots.txt」と入力し、ファイルを保存するフォルダを選択して[保存]をクリックして保存します。

7。

保存したrobots.txtファイルを、検索エンジンのクローラから保護する各ドメインのルートディレクトリにアップロードします。 ルートディレクトリは最上位ディレクトリです。

先端

  • あなたはどんなFTPクライアントソフトウェアあるいはあなたのホストのWebファイルマネージャを使ってもファイルをアップロードすることができます。

人気の投稿