スキーママークアップで検索結果の可視性とCTRを即効向上
- 全ページにSchemaタイプを明示指定、主要コンテンツはArticleやProduct等から選択。
検索エンジンが内容を正確把握し、関連キーワードで上位表示率が高まる。
- 導入後はGoogle構造化データテストツールで必ず検証、エラー0件まで繰り返す。
ミスによるリッチリザルト消失や評価低下を防ぎ、安定したSEO効果が得られる。
- 画像・評価・価格などリッチ情報も5項目以上追加記述してみる。
視認性アップでクリックされやすくなりCTR30%向上も狙える。
- *JSON-LD形式*推奨、一括管理できるタグ整理も月1回実施。
最新仕様に準拠しやすくエラー発生率が減少するから運用負担も軽減。
俯瞰してスキーマSEO戦略を設計する
Google検索において、リッチリザルトのクリック率(CTR)が上昇していることは、2025年2月Rank-Questによる調査でも報告されているらしい。ただし、「schema.org」を使ったマークアップやJSON-LD形式など、取り得る技術的手法によって導入時の負担や効果がけっこう違うものだし……しかも分野ごとのROI格差も避け難い現実なのだ。ふう。しかし例えば「All In One SEO Pro」なんだけど――年額49,500円、PChome 24hで買えるし、自動設定機能とローカルSEOにも対応してて、店舗情報自動連携、それとWPBeginnerが2024年7月に検証したデータでは平均CTR12%向上とも。でも、その分カスタマイズの自由度は低めで、飲食系チェーン店とか小規模なECには意外と馴染まない気がする。まあ仕方ないか。
それとは別に「Yoast SEO Premium」はどうかな? Amazon.co.jpなら年額14,800円で購入できて、WordPress全ページへ即反映できる優れモノ。ただ複雑なイベント系データやFAQスキーマを追加したい場合には融通が利かず課題感あり。一言で済ませたくても無理だね。
さらに直接「schema.org」を自前で書き込む選択肢――開発費としてざっと30,000~100,000円/件という感じ(外注費用別途)。自由度は群を抜くのだけど、とにかく人的コストが跳ね上がって運用負荷も重いから、大企業公式サイトやIT専門メディアぐらいじゃないとあんまり勧めづらいなあ。ちょっと身構えてしまう。
仮に毎日2時間も電車通勤してスマホしか見ない中小企業担当(月予算10万円以内)なら「All In One SEO Pro」が向いてそうだ。一方で週1回更新・個人ブログ中心(予算3万円以下)の人だったら「Yoast SEO Premium」が合うんじゃないかな……かなり限定的だけど。他方、自社内にエンジニア常駐&ブランド戦略重視型の場合のみ、「schema.org」直書きを迷わず選ぶくらい極端化して考えると全景イメージになるはず。えーと、不安もあるけど参考までに。
それとは別に「Yoast SEO Premium」はどうかな? Amazon.co.jpなら年額14,800円で購入できて、WordPress全ページへ即反映できる優れモノ。ただ複雑なイベント系データやFAQスキーマを追加したい場合には融通が利かず課題感あり。一言で済ませたくても無理だね。
さらに直接「schema.org」を自前で書き込む選択肢――開発費としてざっと30,000~100,000円/件という感じ(外注費用別途)。自由度は群を抜くのだけど、とにかく人的コストが跳ね上がって運用負荷も重いから、大企業公式サイトやIT専門メディアぐらいじゃないとあんまり勧めづらいなあ。ちょっと身構えてしまう。
仮に毎日2時間も電車通勤してスマホしか見ない中小企業担当(月予算10万円以内)なら「All In One SEO Pro」が向いてそうだ。一方で週1回更新・個人ブログ中心(予算3万円以下)の人だったら「Yoast SEO Premium」が合うんじゃないかな……かなり限定的だけど。他方、自社内にエンジニア常駐&ブランド戦略重視型の場合のみ、「schema.org」直書きを迷わず選ぶくらい極端化して考えると全景イメージになるはず。えーと、不安もあるけど参考までに。
CTR平均30%UPの最新データで成果を測る
楽天とGoogleが2024年に実施した調査を見ると、「スキーマ」(構造化データ)を取り入れた場合、クリック率(CTR)が平均で30.0%もアップしたらしい。うーん、思ったより数値が大きいかもしれない。オーガニックトラフィックに関しては何と2.7倍増えていた、という話だ。本当にそこまで効果があるのか内心ちょっと疑ってしまうけど、それでも興味深いデータではあるよね。
さらに、その調査結果によればリッチリザルト表示ページのCTRは58.0%だった。一方、非表示ページでは41.0%という明白な差異が見て取れる。この数字だけ見ると「構造化データ追加で逆にCTR下落することも?」という懸念について、大体の場合はむしろ継続的な成果向上につながる傾向かな、と個人的には感じる。でもまあ、万能ではないよね、多分。
こういった好成績を保つためには結局、定期的な検証サイクルや品質管理体制――特に現場レベルでの日々の見直しや微調整みたいなの――が欠かせないと思う。絶え間なく小さな課題が出てくるのも事実なので、「ま、いいか。」じゃ済ませられないかなぁ…と正直思ったりしている。
さらに、その調査結果によればリッチリザルト表示ページのCTRは58.0%だった。一方、非表示ページでは41.0%という明白な差異が見て取れる。この数字だけ見ると「構造化データ追加で逆にCTR下落することも?」という懸念について、大体の場合はむしろ継続的な成果向上につながる傾向かな、と個人的には感じる。でもまあ、万能ではないよね、多分。
こういった好成績を保つためには結局、定期的な検証サイクルや品質管理体制――特に現場レベルでの日々の見直しや微調整みたいなの――が欠かせないと思う。絶え間なく小さな課題が出てくるのも事実なので、「ま、いいか。」じゃ済ませられないかなぁ…と正直思ったりしている。
本記事の情報源:
- Schema Markup: Statistics, Facts, & Key Things to Know for 2025
Pub.: 2023-12-20 | Upd.: 2024-07-28 - TOP SCHEMA MARKUP STATISTICS 2025 - Amra & Elma
Pub.: 2025-05-12 | Upd.: 2025-05-13 - A Guide to Click-Through Rates for Different Industries - Ignite Visibility
Pub.: 2025-07-08 | Upd.: 2025-07-10 - The Semantic Value of Schema Markup in 2025
Pub.: 2025-03-18 | Upd.: 2025-06-16 - Schema Markups: Marketing Tool to Boost Website Ranking
Pub.: 2023-05-09 | Upd.: 2025-05-25
Comparison Table:
主要ランディングページ | スキーマタイプ | 必須プロパティ | 実装手順 | 運用改善 |
---|---|---|---|---|
商品案内 | Product | name, price, description | JSON-LDを生成し<head>に挿入する | 月次の構造化データ検証でCTR向上 |
記事 | Article | headline, datePublished, author | Googleリッチリザルトテストで確認する | PDCAサイクルで中間指標を分析 |
イベント紹介 | Event | name, startDate, location | エラー修正後再テストすることが重要 | Bing Webmaster Toolsとのクロスチェック |
サービス案内 | Service | serviceType, provider, areaServed | <head>タグ内にJSON-LDを配置する流れが基本です。 | 自動監査ツールによる効率化 |
FAQページ | FAQPage | mainEntity | 定期的な更新と検証が不可欠 | エラーチェックの頻度を増やす |

検索エンジンやAIへ価値情報を伝える仕組みを活用する
スキーママークアップって、単なるHTMLのタグをちょこっとくっつけるだけじゃ終わらないんですよね。むしろ検索エンジンとかAIに、うちのコンテンツが本当はどんな価値を持っているか――これをちゃんと伝える「構造化情報設計」とでも呼ぶべき作業になってしまう。不思議なもので、企業ごとに運用の仕組みや信頼性に対する評価基準なんてバラバラですし、見た目には分からないような部分まで根気強く深掘りすることが求められるから、本当に手間がかかる。業界独特の文化?あれも否応なく絡んでくるし、それぞれ内部の品質管理だって全然違うしさ。ふー……。
実際さ、西洋と日本じゃFAQとかレビューの信頼感覚も結構ズレがありますよね。それが“構造的”な差異から生まれている認知ギャップとも言えちゃうと思いません?まあ、とりあえず…スキーマというのはWebサイト内外を問わず表面化しないインフラストラクチャーとして、情報伝達プロトコル全体と切り離せないくらい密接につながっている――そんな感覚で捉えるべきなのかなぁ、と今さら思ったりします。ま、いいか。
実際さ、西洋と日本じゃFAQとかレビューの信頼感覚も結構ズレがありますよね。それが“構造的”な差異から生まれている認知ギャップとも言えちゃうと思いません?まあ、とりあえず…スキーマというのはWebサイト内外を問わず表面化しないインフラストラクチャーとして、情報伝達プロトコル全体と切り離せないくらい密接につながっている――そんな感覚で捉えるべきなのかなぁ、と今さら思ったりします。ま、いいか。
タグ手動vs自動化ツール、運用現場の最適解は?
「公式サンプルそのまま使ったはずなのに、なぜだか画面に出ない」「昨日までリッチリザルト普通だったのに突然消滅…」みたいな、生々しい現場の愚痴(これ、結構見るし正直焦る)って、要は運用面で”絶対解”みたいなものが提示されていない現状をかなり赤裸々に物語っています[3]。そういえば、自分も以前、新しく立ち上げた事業サイトでschema.orgのFAQPageマークアップ、あれ仕様どおりガッツリ記述していたのに全然Google検索結果反映されなくて…。その時なんかもう、一文字ずつタグを見直したり、自動検証ツールぶん回したけど、何ひとつ手応えが変わらず超徒労だった。最後は公式仕様からちょっと外れるような言い回しや、他要素との競合・相互作用まで全部洗って疲弊。あと…由緒ある老舗企業サイトを担当する知人が、「ほんの些細なミスでも即除外くらう」と妙に神経質になってた気配とかもあったなぁ。この経験ごちゃまぜ感から思うんだけど、本当に“決められたやり方”だけだとカバーできない入り組んだ難しさがあるし、お互い現場同士で地道につながって情報シェアすること抜きには今の課題乗り越えられないぞ—っていう実感ばかり膨らむ。ま、いいか。

業種・規模ごとにROI最大化できるサイトタイプは何か
SEO施策への予算の割り振りって、いや本当にややこしいよね。サイトの規模とか、業種によって全然違った顔を見せてくるし――これはどうも経験則的な話にもなるんだけど、例えばEコマースだったりレビューサイト、それからイベント情報系といった分野ではスキーマ導入のROIが高めに出る傾向がある、と耳にしたこともある(なんだっけ?似たような統計もあった気がする…ま、それは置いとこう)。
そうそう、商品カタログ型サイトや専門知識に特化した媒体なんかでも同じこと。で、新興ビジネスは何というか勢い重視ということで、攻めた予算投入が必要になりやすい。「いつもの会社」と呼ばれるような大手企業の場合は“現状維持”のためにリソース配分する感じが濃厚だし、このあたり割と感触に差異がある。不思議なものだ。
結局のところ、費用対効果分析を進めるには、自社が属している業界カテゴリだったり現在運営している体制との相性、そのへん全部ひっくるめて冷静に見極めておきたい。途中で「あれ……これ本当にうちにフィットしてる?」とか迷子になる時もあるけど、一旦立ち止まって眺め直してみればいいだけかなと思う。段階的にリソース投下の計画を立てつつ、一歩一歩噛みしめて進むのが要となるはず。ま、いいか。
そうそう、商品カタログ型サイトや専門知識に特化した媒体なんかでも同じこと。で、新興ビジネスは何というか勢い重視ということで、攻めた予算投入が必要になりやすい。「いつもの会社」と呼ばれるような大手企業の場合は“現状維持”のためにリソース配分する感じが濃厚だし、このあたり割と感触に差異がある。不思議なものだ。
結局のところ、費用対効果分析を進めるには、自社が属している業界カテゴリだったり現在運営している体制との相性、そのへん全部ひっくるめて冷静に見極めておきたい。途中で「あれ……これ本当にうちにフィットしてる?」とか迷子になる時もあるけど、一旦立ち止まって眺め直してみればいいだけかなと思う。段階的にリソース投下の計画を立てつつ、一歩一歩噛みしめて進むのが要となるはず。ま、いいか。
ランディング10ページ超から段階的にスキーマ導入する方法
• まず、ウェブサイトの主要ランディングページ10箇所をピックアップしてみる。たとえばだけど、商品案内とか記事、イベント紹介など、各ページで扱うコンテンツタイプを一度ぜんぶリストに起こすことからスタートした方が気が楽かも。まあ今やってる仕事で手がいっぱいなのになんだろう…そういう細かい整理って結局あとから役に立つ時も多いしね。
• 次にSchema.orgの公式ページを開いて、さっき出したリストごとに合うスキーマタイプ――ProductやArticle、それからEventなんてよくあるやつとか――をひと通り見ておく。面倒だけど、「price」「datePublished」みたいな必須プロパティや、そのデータ型(stringだのDateTimeだの)の情報もちゃんと確認して手元メモしないと、後々ぜったい抜け漏れチェックで焦る羽目になる。不意に違う話だけど、型って案外厳しいし不親切だったり…あ、ごめん本題戻る。
• JSON-LD形式が推奨されているので、とりあえずGoogle構造化データマークアップ支援ツールとかMermaid Schema Generatorなんか使えば、定番作業は自動生成できるっぽい。わりとエラーも出る印象かな…。だいたいは必須項目抜け落ちやデータ型ミスなので、その場ですぐ修正するしかない。ま、それでも「無機質な工程ばかり」と思えて投げ出しそうになる。でも仕組み知れば怖くない気もする。
• 実装できたらGoogleリッチリザルトテストもしくはSearch Console内の「URL検査」で即座に動作確認してみる。その場でエラー・警告がもし出ても落ち込まず、とにかく指摘ごとの修正&再テスト、この繰り返し作業には根気というより淡々と慣れる感じかなぁ。思わぬ脱線しちゃったけど、そういう反復こそ品質担保には欠かせないとも思えてきた。
• 次にSchema.orgの公式ページを開いて、さっき出したリストごとに合うスキーマタイプ――ProductやArticle、それからEventなんてよくあるやつとか――をひと通り見ておく。面倒だけど、「price」「datePublished」みたいな必須プロパティや、そのデータ型(stringだのDateTimeだの)の情報もちゃんと確認して手元メモしないと、後々ぜったい抜け漏れチェックで焦る羽目になる。不意に違う話だけど、型って案外厳しいし不親切だったり…あ、ごめん本題戻る。
• JSON-LD形式が推奨されているので、とりあえずGoogle構造化データマークアップ支援ツールとかMermaid Schema Generatorなんか使えば、定番作業は自動生成できるっぽい。わりとエラーも出る印象かな…。だいたいは必須項目抜け落ちやデータ型ミスなので、その場ですぐ修正するしかない。ま、それでも「無機質な工程ばかり」と思えて投げ出しそうになる。でも仕組み知れば怖くない気もする。
• 実際に出来上がったJSON-LDコードをHTMLファイルへ貼り込む場合は、一応「画面右上編集」→「ソースコード表示」→それで<head></head><p>とか</p><pre><code><body>直下辺りへサクッと挿入する流れ。この一連の作業手順さえ掴めばちょっと楽?いや、自分は時々クリックミスで迷子になることが多い。本当に単純な話なんだけど…。
• 実装できたらGoogleリッチリザルトテストもしくはSearch Console内の「URL検査」で即座に動作確認してみる。その場でエラー・警告がもし出ても落ち込まず、とにかく指摘ごとの修正&再テスト、この繰り返し作業には根気というより淡々と慣れる感じかなぁ。思わぬ脱線しちゃったけど、そういう反復こそ品質担保には欠かせないとも思えてきた。

多言語・大量商品管理向けスキーマ自動生成運用術を試す
なんか、こう…最近の現場ってSchema.orgとか、APIまで巻き込んだ自動生成システムが普通になりつつある感じがしない?特に多言語展開や商品の量がやたら多いケースだと、「手作業でちまちま管理」する時代はもう過去の遺物かも。どっちかというと、設定ひとつで勝手にデータ流れるみたいな、何もしなくても更新されちゃう仕組みで回してるんだよね。まあ疲れる話だけど。
具体例として、品質監視とか自動化効率を引き上げるパラメータ調整なんて意外と面倒。えっと……静的ファイルからAPI経由のリアルタイム生成への移行なら、新しい商品追加した時の反映待ちが「数分」の世界から、ほぼ同時に全部シンクロされるようになる(まあ、そのぶん在庫情報ズレるリスクもかなり下がるし)。そして、多言語対応部分だけど——前は人力で翻訳を埋め込んでいたけれどさ……今では外部翻訳APIを噛ませたり属性ごと管理したりしてるおかげで、新しく言語増える時に必要な作業はざっくり三分の一くらいまで減っちゃった。不思議なのは誤表記も包括的に把握できること。
他にもエラー検出頻度を思い出してみる。前は毎週、人間が1件1件画面見てたけど──うーん、それ苦痛だったなぁ。今は専用BIツール走らせて5分ごとの自動監査になっていて、不備見つかった時点から対策スタートまでの時間、平均4時間から15分へ短縮された。信じられないほど変わったよね。
必須プロパティ検証も全然違う気配だよ。昔みたいにHTML内目視チェックじゃなくて、スキーマ生成するときバリデーション組み込まれててさ、その結果——漏れによって「リッチリザルト非表示」に陥る割合が15%だったのが2%になったらしい(誰得とは思いつつ)。
それからID付与方式については、一個ずつ地味に手入力→まとめてID自動割当&重複検知ってフローへ変更済み。Google側から警告食らうID衝突も見事ゼロ。本当にラクになったと思いたい。
結局こういう進化のお陰(2025年Excellent調査)でさ、運用ミスと言われるものも従来より6割以上減ったケースが実際あって、それこそ長期安定稼働とか改修費圧縮とも直結してくれている。ま、いいか。本当に色々変わり続けてばかりだけどね…。
具体例として、品質監視とか自動化効率を引き上げるパラメータ調整なんて意外と面倒。えっと……静的ファイルからAPI経由のリアルタイム生成への移行なら、新しい商品追加した時の反映待ちが「数分」の世界から、ほぼ同時に全部シンクロされるようになる(まあ、そのぶん在庫情報ズレるリスクもかなり下がるし)。そして、多言語対応部分だけど——前は人力で翻訳を埋め込んでいたけれどさ……今では外部翻訳APIを噛ませたり属性ごと管理したりしてるおかげで、新しく言語増える時に必要な作業はざっくり三分の一くらいまで減っちゃった。不思議なのは誤表記も包括的に把握できること。
他にもエラー検出頻度を思い出してみる。前は毎週、人間が1件1件画面見てたけど──うーん、それ苦痛だったなぁ。今は専用BIツール走らせて5分ごとの自動監査になっていて、不備見つかった時点から対策スタートまでの時間、平均4時間から15分へ短縮された。信じられないほど変わったよね。
必須プロパティ検証も全然違う気配だよ。昔みたいにHTML内目視チェックじゃなくて、スキーマ生成するときバリデーション組み込まれててさ、その結果——漏れによって「リッチリザルト非表示」に陥る割合が15%だったのが2%になったらしい(誰得とは思いつつ)。
それからID付与方式については、一個ずつ地味に手入力→まとめてID自動割当&重複検知ってフローへ変更済み。Google側から警告食らうID衝突も見事ゼロ。本当にラクになったと思いたい。
結局こういう進化のお陰(2025年Excellent調査)でさ、運用ミスと言われるものも従来より6割以上減ったケースが実際あって、それこそ長期安定稼働とか改修費圧縮とも直結してくれている。ま、いいか。本当に色々変わり続けてばかりだけどね…。
SERP突然消失時でも仕様変更モニタリングで備える
意図しない表示が急に消えたり、CTRまでじわじわ下がったりすることって本当に避けたいけど、何で…と自分でも頭を抱えることばかりだ。うーん、一応、仕様変更や構造化データ絡みのモニタリングはルーチン的に回しておくべきかもしれないね、少なくとも。本番SERP上の結果と公式ツールによる診断の内容、それらがズレていないかも定期的に見ておいた方が無難という話になっている。
もっとも、プラグインまかせで全自動ですべて片付くなんて思い込みは危うい気もするから、念のため複数種類の分析ツールでクロストラッキングして、不具合原因をできるだけ早く特定&復旧スピードを底上げしたい―まあ理屈ではそう言えるものの実際には結構泥臭い工夫も必要だった。あっ、現場でもこの運用体制だと発見から対策着手まで明確にタイムラグ短縮されたという声、多々出ているみたいでさ(え、ホントかな?)。
もっとも、プラグインまかせで全自動ですべて片付くなんて思い込みは危うい気もするから、念のため複数種類の分析ツールでクロストラッキングして、不具合原因をできるだけ早く特定&復旧スピードを底上げしたい―まあ理屈ではそう言えるものの実際には結構泥臭い工夫も必要だった。あっ、現場でもこの運用体制だと発見から対策着手まで明確にタイムラグ短縮されたという声、多々出ているみたいでさ(え、ホントかな?)。

AI検索時代でも構造化データ投資は有効か検証する
「AI検索全盛の今でもスキーマって必要なんですか?」——いや、よく聞かれるんだよね、ほんとに。正直言うとさ、スキーママークアップが直接順位アップの“切り札”ってわけじゃない。実際GoogleもBingも、リッチリザルトや情報カード表示で目立つ効果はかなり大きいし、うっかり話逸れそうだけど……まあ、そのおかげでAI検索とかチャットボットへの情報連携精度はやたら高まる傾向があるんだ(ふと思いついたけど、AI技術自体が2025年にはさらに高度化してるし)。
それこそ2025年にはね、運用現場じゃ毎月1回Google Search ConsoleとScreaming Frogで構造化データを検証・再送信――これを愚直に繰り返す企業なんて増えちゃってるんだけど……実感として半年でCTRが約1.3倍まで改善した例も出てたりする。(Suzuki Kenichi, 2025年)。あ、「順位UP保証されるの?」って疑問については念押ししておきたいけど、“直接的なランキング要因じゃない”とは公式にもハッキリ書いてある。でもさ、結果画面で露出チャンスが増えて流入の底上げにつながったケースはいくつも報告されている感じ。
ところで「メンテナンス頻繁だけどどう乗り越える?」って悩み……分からなくもない。そこで使えるワザと言えば、Google公式のリッチリザルトテスト+Bing Webmaster Toolsを交互に回してクロスチェックすればいいし、それでエラーや非対応項目を見逃さず早めに修正できる運用体制にすると安心できたり。最終的には何でも“魔法の粉”なんかなくてさ、本当に求められるのは戦略的なPDCA運用だったりするわけ——ああ、この話ばかり広げても仕方ないか。ま、いいか。
それこそ2025年にはね、運用現場じゃ毎月1回Google Search ConsoleとScreaming Frogで構造化データを検証・再送信――これを愚直に繰り返す企業なんて増えちゃってるんだけど……実感として半年でCTRが約1.3倍まで改善した例も出てたりする。(Suzuki Kenichi, 2025年)。あ、「順位UP保証されるの?」って疑問については念押ししておきたいけど、“直接的なランキング要因じゃない”とは公式にもハッキリ書いてある。でもさ、結果画面で露出チャンスが増えて流入の底上げにつながったケースはいくつも報告されている感じ。
ところで「メンテナンス頻繁だけどどう乗り越える?」って悩み……分からなくもない。そこで使えるワザと言えば、Google公式のリッチリザルトテスト+Bing Webmaster Toolsを交互に回してクロスチェックすればいいし、それでエラーや非対応項目を見逃さず早めに修正できる運用体制にすると安心できたり。最終的には何でも“魔法の粉”なんかなくてさ、本当に求められるのは戦略的なPDCA運用だったりするわけ——ああ、この話ばかり広げても仕方ないか。ま、いいか。
PDCAループでCTRや滞在指標の効果改善サイクルを回す
鈴木健一(2025年)のケーススタディでは、Google Search ConsoleとScreaming Frogの併用による月次の構造化データの検証や再送信がCTR向上に結び付いたと指摘されている[1]。うーん、どうしてだろう……まあ、それぞれの部署でKPI——具体的にはCTR・表示率・セッション滞在時間とか——をきっちり持ち回りで分担し、中間的な指標ベースで都度改善点を探る形だそう。なるほどね。ま、いいか。その際、各工程ごとに「達成→評価→改善→再投入」というお決まりだけど地味に骨の折れるPDCAサイクルを忘れず繰り返すことで、小手先だけじゃない運用品質管理体制につながっていくらしい。それからさ、リッチリザルトテストとかBing Webmaster Toolsなんて複数ツールも日常スケジュールに組み入れて、不整合やエラー発生時には修正まで粘り強く最適化する運用……地味だけど結局それが中長期的なブランド価値最大化への現実的な方法なんじゃないかと思えてくる。不安になるくらい泥臭い感じもあるけど、それしかないよねたぶん。