「ファントム3」: 2015年11月19日に起こったことは、品質改善アップデートか、順位操作か、バグだったのか? (2016年1月25日 Sudhir Sharma)

<p>2015年11月20日、<a href="https://www.besthostnews.com/was-there-a-google-update-this-week-around… Engine Land</a> の Barry Schwartz は、インターネット上で、19日ごろに始まったGoogle のアップデートについてレポートしました。このレポートで、自身のサイトページのランキングへの影響が報告されて、SEOやウェブサイトの運営者から、この変更について肯定的な意見と否定的な意見が寄せられました。</p>

<p class="rtecenter"><img alt="google_Phantom_III" class="aligncenter wp-image-8418 size-full" height="350" sizes="(max-width: 754px) 100vw, 754px" src="https://www.brightedge.com/blog/wp-content/uploads/2015/03/google.jpg&q…; srcset="https://www.brightedge.com/blog/wp-content/uploads/2015/03/google-300x1… 300w, https://www.brightedge.com/blog/wp-content/uploads/2015/03/google.jpg 754w" width="754" /></p>

<p>最初のころに寄せられた意見は、ランキングの向上の原因をモバイル・フレンドリーなサイトやコンテンツの充実にある、としていました。しかし、同じくらいの人数から、バックリンクの品質が悪い競合サイトの方が自社のサイトよりも上位にランキングしているとして、批判しています。Schwartz 氏は、これらのコメントからアップデートがあったのではないかと考えました。氏は、これらのコメントだけを根拠にしたのではありません。Algaroo やその他の検索結果トラッカーの図表を公開し、最近のランキングの不安定さを示しました。何かが変わったようなのですが、Google からは、誰もこの説明をしませんでしたし、アップデートがあったかどうかも公表していません。</p>

<h2>11月19日のファントムアップデートとは何か?</h2>

<p>アップデートは本当にあったのでしょうか? ペンギンアップデートやパンダアップデートの変更でしょうか? あるいは、Google の重要なアルゴリズムの変更でしょうか? Google のウェブ・マスター・トレンド・アナリストであるJohn Mueller氏は、19日の時点でTwitter での質問に対して返答しています。 この時点では、氏は、何も報告するような重要なことは無いし、もし何か変化が感じられるとすれば、それは、検索エンジンの大手が実施する年間に数百あるマイナーアップデートのひとつではないか、とのことでした。20日までにMueller氏は、Google の重要なアルゴリズムに変更があったことを質問への答えで明らかにしました。</p>

<p>12月のはじめに、サーチエンジンのブロガー達は、このアップデートのことを<em>Phantom 3 (ファントム3) </em>と名づけました。この名前は、Schwartz 氏によると、2015にあった2つの予期しないアップデートがPhantom 1, Phantom 2 と呼ばれていたからだとのことです。後に、<a href="//searchengineland.com/evidence-of-an-unconfirmed-google-update-happening-on-november-19th-237452">Search Engine Land</a> の2つ目のこのアップデートに関する記事によると、Google は、Phantom 2 が5月に起こったことを認め、品質改善のためのアップデートと呼びました。Schwartz 氏は、Phantom 3は、おそらく、これも品質改善のためのアップデートだろうと結論付けました。しかし、まだ、Google からの確認はありません。</p>

<h2>Provocative Updates to Mobile Navigational Searches</h2>

<p>いずれにせよ、Google は、アップデートを実施しました。このアップデートの正確な意図はまだわかりません。毎年、検索エンジン会社が実施する重要なアップデートについて、証拠が示されて、確認されているにもかかわらず、Google は、これまで詳細を公表してきませんでした。もし今回もそういうことなら、この件に関する興味は消えていったことでしょう。しかし、今回はこの件は、モバイル端末におけるナビゲーショナル・サーチが問題になるにつれ、より複雑になっていきました。</p>

<p><em>ナビゲーショナル・サーチ</em> とは、ユーザがウェブサイトやページのURLを直接タイプせずに、検索を行うことをいいます。例として、tripadviser.com に直接行くのではなくて、”Tripadvisor hotels” と検索ボックスにタイプする場合が挙げられます。モバイル端末では、より多くのユーザがこのナビゲーショナル・サーチに頼っています。なぜなら、完全なページアドレスを小さな端末で入力するのは難しいからです。また、モバイルのブックマークはラップトップやデスクトップのそれと比べて、使いにくいということもあります。</p>

<p>検索エンジン会社は、このナビゲーショナル・サーチから利益を得ているという事にも触れておくべきでしょう。これらの検索に対して、広告を表示するチャンスが得られるからです。インターネット・ユーザが直接ウェブサイトにアクセスする場合には、広告を表示することができません。</p>

<h2>Google のOneBox がローカル検索の競合サイトよりも優先された</h2>

<p>このようなナビゲーショナル・サーチの検索結果を表示するページのトップに、オーソリティの高いウェブサイトが表示されると皆さん考えることでしょう。Google は、これまでユーザの意図に焦点をあてることに注力する旨、常に言明してきました。また、ユーザの意図を推量するのにかなりうまくやっているように見えます。しかしながら、Mark Bergman が<a href="//recode.net/2015/11/24/google-says-local-search-result-that-buried-rivals-yelp-tripadvisor-is-just-a-bug/">RE/Code</a>で報告したところによると、11月19日のアップデート以後は、こうではなくなったとのことです。</p>

<p>実際に、TripAdvisor のCEOは、11月22日にTwitter でこのアップデートに関して苦情を申し立てました。彼は、”Tripadviser Hilton” の検索結果の例を挙げています。ここでは、サイト内検索の入り口を検索結果の下のほうに表示して見えないようにしています。Yelp のページに関する多くのナビゲーショナル・サーチの結果も同じ状況でした。これらの会社の重役たちは、自社のウェブサイトが検索結果の下位に表示されるようになったためだけで怒っているのではありません。Google は、これらの権威のあるサイトへのリンクに代えて、自社のOneBox欄を大きく表示するようにしたのです。Yelp やTripAdviser のほかに、FourSquare やZocDoc などもGoogle の自社の表示のためにランキングを下げています。</p>

<p>この問題の背景として、TripAdvisorとYelp は、EUのGoogle への不正競争の提訴にかかわっていることが挙げられます。このような苦情は、検索エンジン会社が自社の製品の販売促進を行っており、自社と利益が競合する場合に、公平な検索結果を表示していないと訴えています。</p>

<p>Re/Code はその記事で、Google のアルゴリズムにおけるコオカランス (co-occurrence) シグナル、つまり同時発生時シグナルの使用についてのGoogle の社内資料を<a href="//graphics.wsj.com/google-ftc-report/img/ftc-ocr-watermark.pdf">FTC</a>が公開していることに触れています。これらのシグナルは、通常のアルゴリズムで競合サイトのウェブサイトが表示される場合に、検索エンジンの自社製品を表示するというものです。今回のアップデートの懸念は、このコオカランス・シグナルのの実際の製品環境におけるあからさまな事例である、というものです。OneBox リスティングは、自然検索の結果に代えて明らかな広告を単純に挿入するというものとは、かなり異なります。</p>

<p>Google の広報担当者は、これが単純なバグですぐに修正する旨、報告しました。Yelp のCEO, Jeremy Stoppelman氏は、この説明を疑い、行動パターンであって欠陥ではない、といいました。TripAdviser の Kaufer氏も、これに呼応しています。これらの議論にもかかわらず、Google は翌日に修正を行い、モバイルとローカル検索の結果は元に戻りました。Re/Code は、Google が問題を解決したことを確認する記事を公表しました。</p>

<h2>モバイル検索アップデートはバグだったのか、テストだったのか、メッセージだったのか?</h2>

<p>バグだったのでしょうか? 影響を受けた企業のCEOは、これは過誤によるものではないと言っています。Google は、過誤だったと主張しています。陰謀説を信じる人たちは、単なる失敗とか、年末の繁忙期を狙った一時的な検索結果の操作とかではないといっています。これは、検索会社による独特な方法で、もし本気で検索結果を操作使用と思ったら何ができるか、競争会社や一般の人々、あるいは、政府に対して知らせようとしたのではないかと、考えています。</p>

<h2>ファントム3は、品質向上アップデートのようだ</h2>

<p>12月の後半、SEMRush は、11月19日のアップデートについて、一般的なウェブサイト検索に関する独自のトラフィック分析を公表しました。その結論は、アップデートの結果は実在し、かなり大きなものだったとのことです。調査されたうちの40%のサイトは、10%以上トラフィックを増やしたか、減らしたかしています。この記事では、このアップデートは、実際に品質改善アップデートだったとしています。また、順位を下げたサイトは、重複やコンテンツの品質などで問題があったとのことです。</p>

<p>どのようなサイトでも、ウェブサイトのオーナーは、そのページのコンテンツを分析するべきです。<a href="https://www.brightedge.com/technology/recommendations/site-audit">ブライトエ…; は、問題をあぶり出し、将来の品質アップデートやアルゴリズムアップデートによるトラフィックの減少からサイトを守ります。</p>

<h2>関連資料</h2>

<p><a href="https://www.besthostnews.com/was-there-a-google-update-this-week-around…; target="_blank">Was there a Google update this week around 19th November?</a></p>

<p><a href="//searchengineland.com/evidence-of-an-unconfirmed-google-update-happening-on-november-19th-237452" target="_blank">Evidence of an unconfirmed Google update happening on November 19th</a></p>

<p><a href="//recode.net/2015/11/24/google-says-local-search-result-that-buried-rivals-yelp-tripadvisor-is-just-a-bug/" target="_blank">Google says local search result that buried rivals Yelp and TripAdvisor is just a bug</a></p>

<p><a href="https://www.semrush.com/blog/was-googles-new-phantom-3-update-real/&quot; target="_blank">Was Google’s new Phantom 3 update real?</a></p>

<p><a href="https://www.brightedge.com/technology/recommendations/site-audit&quot; target="_blank">BrightEdge Site Audit – Assess your website and take action</a></p>

<p><a href="https://www.brightedge.com/jp/articles">ブライトエッジブログ記事一覧</a></p&gt;

Create a Robots.txt That Offers SEO Efforts

enewton@brightedge.com
enewton@brightedge.com
M Posted 10 years 2 months ago
t 9 min read

Search engine optimization revolves around helping your content rank highly in search engines so that potential customers can find it. There are some moments, however, when you do not want the bots to crawl and rank your pages. In these instances, robots.txt can be a useful resource to help you guide the site crawlers towards the pages you deem more useful.

Create Robots.txt

The earliest form of the robots.txt was developed in the mid-1990s as a way to help site owners control the spiders that visited their websites. It has since been refined and expanded to ensure that it meets the needs of modern website designers. The instructions given in the code will be accepted by the web crawlers from the major search engines, including Google and Bing.

Robots.txt and SEO

Since robots.txt is used to tell search engine bots to not crawl parts of sites, it can sound like the opposite of SEO, but properly using these files can sometimes help the rest of the site rank highly.

For example, some sites generate two pages with identical content, such as a printable version of a web page. Google, however, frowns on duplicate content. To avoid any potential negative marks against your site, it can be helpful to block the Google robots from crawling the printable version of the page.

Robots.txt can also be useful when you are developing a new site. The amount of time it takes Google to index websites can vary widely, from a few days to a few weeks. The timetable is influenced by several factors, such as the popularity of the site. Given the unpredictable nature of how long it takes to get a website indexed, most people want to get their new websites or new web pages fully prepped before they go live. This can help them maximize their SEO capabilities before the Google bots crawl the new content.

Some people will also use the files to help keep personal information private. Since the pages will not be crawled, it will not be displayed to the public on the search engines. It is very important to note, however, that using Robots.txt files does not make the information secure. Think of the Robots.txt as a request-- a closed, but not a locked, door. Google bots will not crawl the information because it will respect the request. There are plenty of malware and spam bots, however, that will completely ignore the request and force their way onto the page. This can result in the publication or theft of this information.

It is also possible for Google to come across the information on the page through other measures, such as when the blocked page is linked to by other websites. Sites that have very sensitive information should make sure it is protected by much more secure measures, such as a firewall.

Using the Robots.txt

Creating a robots.txt file is not a complicated process, but it does have be done precisely to avoid errors. Simple typos in the coding can easily nullify it and you will end up having pages unintentionally crawled. Fortunately, Google has developed a testing tool that allows you to at least check how the Google bots will respond to your robots.txt. There are a few important rules that you need to remember when using this system:

  • all the letters of ‘robots.txt’ must be written in the lower case
  • the file must be placed in the top-level directory of the web server
  • there is only one “Disallow” that can be used for each URL on the site
  • subdomains that share a common root domain need to have separate robots.txt files
  • you cannot use spaces to separate the parameters of the query.

When one of these rules is broken, then the file will not work as intended. A basic robots.txt file will look like this:

creating a robots.txt basic file with brightedge step 1

By listing the user-agent as ‘*’, the file tells the spider that this rule applies to all web crawlers. The ‘/’ after the disallow means that this rule applies to all the pages on this particular site. In certain situations, however, you may need to use the file to block a particular portion of the website, such as a directory. In this situation, you will need to replace the ‘/’ with the name of the directory, such as:

creating robots.txt disallow file - brightedge

If there is more than one directory that needs to be avoided by the spiders, then the file might look like this:

create robots.txt disallow multiple - brightedge

 

Notice in the above example that there is only one ‘Disallow’ and one directory folder listed on each line. There may also be times when you want to only block certain bots, but the spiders from other sites can come through the page. If that is the case, then the file will have to name a specific bot:

brightedge - create robots.txt specific bots

It is important to know that it is also possible to achieve the reverse. If you wanted to allow only one web crawler onto the site but block the rest, then you will need two parts to your file.

create robots.txt to allow one bot - brightedge

The first part of the file above tells Google that it is allowed to explore the whole site. Since there is nothing after the Disallow, then Google interprets it as open to crawling. The second part of the equation tells the rest of the robots that they cannot enter the site. It is important to note that you can also prevent the robots from exploring specific pages-- it does not have to be entire directories. For example, you can include this in your site code.

create robots.txt disallow pages - brightedge

The above example tells all spiders to avoid specific pages. Robots.txt is a valuable resource for those interested in minimizing the exposure of certain parts of their website. Learning how to use these codes can help people optimally construct their sites.

request a demo

Google SEO May Change in John Giannandrea's New Era

Bill Fergusson
Bill Fergusson
M Posted 10 years 2 months ago
t 9 min read

John Giannandrea named google seo artifical intelligence expert - brightedgeGoogle has appointed noted artificial intelligence expert John Giannandrea as the new head of its search team following the retirement of Amit Singhal on February 26, 2016. The changeover has been widely interpreted as signaling increased reliance on machine learning in the Google SEO algorithm, with ultimately widespread implications for Google SEO best practices.

John Giannandrea, a well-known Silicon Valley veteran, joined Google’s engineering team in 2010 with the acquisition of his startup Metaweb Technologies, Inc.  

Artificial intelligence at Google

As head of machine learning at Google, Mr. Giannandrea has already had significant impact, working on the self-driving car; leading development of the Knowledge Graph, Google’s huge database of people, places and things; and more recently overseeing the release of RankBrain, Google’s algorithmically based content ranking system announced in October 2015.

Historically, Google’s algorithm updates have been the product of hundreds or thousands of engineering hours spent studying Google’s enormous store of search data, writing new code and analyzing test results. Most of Google’s search algorithm today is the product of human intelligence applied to a specific problem, such as, “How can we tell what a given page of HTML is about?” and, “How high should this page rank in comparison to other pages we have indexed on the same topic?”

Even though the lines of code in the Google algorithm or in a new update are a tightly held secret, it has long been understood that there are known best practices for Google SEO, often because Google itself has described these best practices in Google’s Webmaster Guidelines.

RankBrain changed Google SEO forever

The release of John Giannandrea’s RankBrain in October marked a stark departure from the era of human-written code. RankBrain is a product of machine intelligence, developed principally to analyze and respond to the 15% of daily queries that Google has never seen before, typically long search phrases spoken into a smartphone.

RankBrain uses semantic search to analyze the query, produces a search engine response page, and then analyzes the searcher’s resulting click-through behavior to improve its organic rankings next time for a similar query. All this happens in milliseconds without human involvement. Once Google’s engineers released RankBrain, machine intelligence was put in charge of these queries, and almost immediately Google reported that RankBrain had become the search engine’s third most important ranking factor.

With RankBrain, Google SEO began to change forever. Suppose you want to know why you rank #9 for one of these long mobile search phrases, instead of #1. Even a Google engineer with access to the code base may not be able to tell you, because the algorithm itself produced the ranking based on the data currently at its disposal.

Best Google SEO practices in the future

And this is likely just the beginning. There is ample room for more artificial intelligence in the Google algorithm. Think of speech and image recognition. Machine learning plays an important role in Google’s improving ability to understand and respond to spoken queries (imagine being able to understand the same English phrase spoken by a native of Mississippi or a native of Yorkshire in the United Kingdom or of Uttar Pradesh in India).

And as for image recognition, you may someday not really need alt tags anymore because Google will be able to recognize and label every image on your website. And you may not needs tags or a transcript of your video because the Google algorithm can understand the image flow and dialogue.

Google SEO best practices may change in unforeseen and unpredictable ways as the algorithm makes more decisions on its own without human direction. In some cases, Google’s engineers may be able to help us understand what is happening, but in other cases specific search rankings may be a mystery.

Big Data analysis and recommendations will be key

To make sense of this world, you will need access to a Big Data content marketing platform that collects data for a huge portion of the web and reports on the correlations that it identifies as influencing search rank.

For example, in June of 2014, BrightEdge published a study called The Mobile Opportunity showing that 62% of the search results on Google differed depending on whether the search was launched from a mobile or desktop device. This was the first time that hard data confirmed what some had only suspected, and it was made possible by the vast amount of data being collected and reported on by the BrightEdge platform.

The new era of machine intelligence in the Google algorithm will mean that you need the visibility that BrightEdge can give you to make sense of a ranking system that no engineer can fully understand.

John Giannandrea’s promotion signals the flowering of a new era of Google SEO when marketers can only get organic visibility if they have access to a Big Data platform that can see and understand what is happening with search rank across the web, and provide clear recommendations on how to optimize content for this new world.

The good news is that in this age of ever more powerful algorithms, you have the BrightEdge algorithm on your side. That is why we invest millions of dollars every year in our technology: to provide you with the information you need to succeed in the exciting new era that has only just begun.

Request a BrightEdge Demo

The Modern-Day CMO: 7 Trends That Will Drive Digital Marketing Success

English, British
News Item Title
The Modern-Day CMO: 7 Trends That Will Drive Digital Marketing Success
News Item Author Name
Jim Yu
News Item Published Date
News Item Summary

According to Gartner’s 2015–2016 CMO Spend Survey, digital marketing has moved into the mainstream, with 98 percent of marketers saying that digital methods are merging into the larger marketing operation.

SEOにおけるタイトルタグ (2016年1月26日 Bill Fergusson)

<h2>タイトルタグ: 4つのシンプルなルールとランキング向上のための5つのステップ</h2>

<p>最近、有名な業界のコラムニストがグーグルの John Mueller にインタビューをして、<a href="https://www.seroundtable.com/google-title-tag-critical-21499.html&quot; target="_blank">タイトルタグは、ランキングの要素として重視されすぎている、</a>と結論づけました。Mueller がいうには、良いウェブページはタイトルタグがなくても上位にランキングする、その一方で、完全なタイトルタグをつけても、ページのコンテンツがなければ影響はない、とのことです。</p>

<p>ご安心ください。タイトルタグは、今でもオンページの最適化のための不可欠な要素です。タイトルタグをきちんとしておくことは検索結果を向上し、トラフィックをふやすために重要です。このブログでは、タイトルタグを作るための4つのシンプルなルールと、成功のための5つの簡単なステップをご紹介します。</p>

<p>グーグルが長すぎるタイトルタグを縮めた時期がありました。今では、タイトルタグの作成がまずかったり長すぎるときには、マシン・ラーニングや人工知能の成果を見ることになります。グーグルは、今ではURLやページのテキストの一部を検索結果に表示します。</p>

<h2>SEOにおけるタイトルタグとはなにか?</h2>

<p>ご存知のとおり、タイトルタグは、ウェブページのソースコードのヘッダー部分に記載されます。HTMLタグによって、次のように表現されます。</p>

<p><strong>&lt;title&gt;Content Performance Marketing and SEO Blog | BrightEdge&lt;/title&gt;</strong></p>

<p>このタグは、HTMLのページを開いたときには見えないのですが、自然検索の検索結果の最初の行に次のように表示されます。</p>

<p class="rtecenter"><a href="https://www.google.com/webhp?sourceid=chrome-instant&amp;ion=1&amp;espv…; target="_blank"><img alt="SEO Title Tag" class="alignnone wp-image-10023 size-full" height="278" src="http://www.brightedge.com/blog/wp-content/uploads/2016/01/Title-Tag.png…; width="846" /></a></p>

<h2>タイトルタグを作るための4つのシンプルなルール</h2>

<p>検索エンジンは、ページのコンテンツの内容を理解するためにタイトルタグを使っています。それから、人間にとっても、後で触れるように、タイトルタグは重要です。ここから、タイトルタグを作る4つのルールのうち、最初のルールが導かれます。</p>

<ol>
<li><strong>そのページの内容を正確に要約するキーワードをタイトルタグに埋め込む。</strong> 上記のタイトルタグでは、2つの関連キーワードを使用しています。”Content Performance Marketing” と “SEO” です。キーワードは、タイトルタグ中、できるだけ左のほうに見えるようにして、会社の名前は、もしスペースに余裕があれば、右のほうに見えるようにします。ところで、会社名の左に見える縦棒は、パイプ (pipe) と呼ばれていて、会社名を区切るのに今日ではよく使われています。どのキーワードを入れればよいでしょうか?ブライトエッジの<a href="http://www.brightedge.com/products/target-demand/data-cube&quot; target="_blank">データキューブ</a>を使って、ページの話題に関連するキーワードを数多く見つけることができます。また、それぞれのキーワードの月間検索件数やどれだけ競争が激しいか、簡単に調べることができます。タイトルタグにキーワードを詰め込みすぎるのはやめましょう。人間にとって、見たり読んだりしやすいタグを作ることを心がけましょう。</li>
<li><strong>タイトルタグは、55文字以下にします。</strong> 上記の例でお分かりのように、検索結果の中でタイトルタグを表示するスペースは限界があります。もし、文字の中に幅の広い M の文字がたくさんあって、I が少なければ、はみ出してしまうかもしれません。しかし、通常、(英文字の場合)大体55文字までに押させておけば大丈夫です。30文字以下のタイトルタグで上位の検索結果を獲得しているページがたくさんあります。</li>
<li><strong>タイトルタグを広告の表題として考えて見ましょう。</strong> タイトルタグは、検索エンジンのためだけに書いているのではないことを忘れないようにしましょう。人間も見るのです。タイトルタグがストッピングパワーを持つタイトルタグを作りたいですね。読者の目を止めるにはどのようなキーワードや短いフレーズがあればよいでしょう? それから、メタディスクリプションの中にコンテンツをクリックして見るべき理由を記載します。たとえば、「…を厳選しました。」とか、最近良く見る例として、Eコマースサイトのメタディスクリプションの最後に、「送料無料」などです。<br />
ブライトエッジの <a href="http://www.brightedge.com/technology/recommendations&quot; target="_blank">レコメンデーション(推奨と対策)</a> モジュールをご覧ください。御社のトップ10の競合サイトがタイトルタグやメタディスクリプションをどのように設定しているか、見ることができます。良いアイデアがあれば、使えるかもしれませんし、もっとアイデアを思いつくかもしれません。クリックは、一瞬の判断で行われるということを忘れないでください。御社のコンテンツを見るためにほとんど本能的にクリックしてしまうような理由を読者に提供したいですね。</li>
<li><strong>タイトルタグは、重複のないようにします。</strong> 2つ以上のページで同じタイトルタグを使っているウェブサイトを良く見かけます。ブライトエッジのレコメンデーション・エンジンは、これを重大なエラーだと認識します。なぜなら、重複したタイトルタグのために、サーチエンジンが適切にインデックスできなかったり、検索に対して適切な検索結果を表示できなかったりするからです。重複するタイトルタグがある場合、良くても、検索エンジンは御社向けのトラフィックを重複した別のページに送ってしまったり、検索者を同じタイトルタグを持つ別のページに送ってしまったりします。ウェブサイトの担当者は、サイトを管理して、特定の話題に関するトラフィックを最も戦略的に正しいURLに送り届ける必要があります。今日、重複タイトルタグは、規模の小さなサイトで頻繁に見られます。おそらく、デザイナーや小規模なサイトの運営者はまだSEOについて、学んでいる途中だからでしょう。ところが、このような間違いは、大規模なサイトでも起こりえます。ブライトエッジのレコメンデーション(推奨と対策)モジュールのレコメンデーション・サマリー・レポートを毎週チェックして、もし重複タイトルタグがあれば、直ちに修正しましょう。</li>
</ol>

<h2>タイトルタグで成功するための5つの簡単なステップ</h2>

<ol>
<li><strong>ページのコンテンツを書く前に、タイトルタグとメタデスクリプションを書き出しましょう。</strong> この両方で同じプライマリー・キーワードを使っても大丈夫です。繰り返しになりますが、タイトルタグはストッパーで、メタ・デスクリプションはクリックさせるためのティーザー(あおり文句)です。</li>
<li><strong>コンテンツを制作します。うまく書けていて、クオリティが高く、できることなら他のどのウェブサイトとも異なるアプローチで書かれている</strong>のが望ましいです。自然検索で上位にランキングし、さらに、こちらの方が重要ですが、検索結果をクリックしてもらうためには、ユニークなコンテンツを作ってうまく運用しなくてはなりません。</li>
<li><strong>ページコンテンツができたら、タイトルタグとメタ・デスクリプションを再検討します。</strong>これは、この2つとページのコンテンツがマッチしていることを確認するためです。忘れてはいけないのは、もし、タイトルタグやメタ・デスクリプションがページのコンテンツを正確に記述していなければ、上位にランキングされる可能性はとても小さいか、ほとんどありません。もし、マッチしていなければ、両方のタグを書き直しましょう。</li>
<li><strong>ページが公開された後、検索結果をチェックします。</strong>こうやって、自然検索の検索結果が正しく表示されているか確認します。驚いたことに多くのウェブ担当者がこのステップを忘れてしまいます。もし、御社のページの検索結果が正しく表示されていなければ、タグを直ちに変更しましょう。それから、レコメンデーション・サマリー・レポートを毎週見て、何か見逃していないか、確認しましょう。</li>
<li><strong>何週間か経ったら、御社のページのトラフィックをブライトエッジの<a href="http://www.brightedge.com/technology/content-centric/page-reporting&quot; target="_blank">ページレポーティング</a> で確認して、クリックスルーレートをグーグル・サーチ・コンソールで確認します。</strong> もし、満足できる結果が得られなかったら、タイトルタグとメタ・デスクリプションを修正しましょう。これらのことを調べて、書き直して、発行するのに何分もかかりません。もっと新しいアイデアが必要だということでしたら、ブライトエッジ・プラットフォームのレコメンデーション(推奨と対策)セクションで競合サイトがどのようにやっているのか、調べてみましょう。</li>
</ol>

<p>タグやコンテンツを常に最適化する必要がある、ということは忘れられやすい事実です。グーグル・アナリティクスのエバンジェリスト、Avinash Kaushikが言っているように、ウェブサイトのすごいところは、あっというまに失敗して、そのためのコストもほとんどかからない、ということです。御社のサイトのタグを最適化するためにもう少し時間を割いて、御社がすばらしいコンテンツを作成するために費やしたお金と時間に対して、最大のリターンを得られるようにしましょう。</p>

<p>ここで書いたタイトルタグのための4つのシンプルなルールと5つのステップをご活用いただいて、御社のトラフィックがさらに増えて、最適化され続けていきますように。</p>

<p><a href="http://www.brightedge.com/jp/articles">ブライトエッジブログ記事一覧</a></p&gt;

BrightEdge Launches Solutions To Measure Content Effectiveness And Engagement

English, British
News Item Title
BrightEdge Launches Solutions To Measure Content Effectiveness And Engagement
News Item Author Name
Retail TouchPoints Staff
News Item Published Date
News Item Summary

BrightEdge, a content performance marketing platform, has launched Content Atlas and Intelligent Experiences.

Content marketing: understanding its role, value and ROI

English, British
News Item Title
Content marketing: understanding its role, value and ROI
News Item Author Name
Jim Yu
News Item Published Date
News Item Summary

According to ClickZ’s 2016 Digital Trends Report, it was reported as one of the most significant trends for brands heading into 2016 – with nearly a quarter of respondents saying that it was the most important trend for them.

,