何を血迷ったのか、お友達のブログを構築し始めた。
流行りの lighthouse に対応させようとすると、SEOの項目で
Page is blocked from indexing
Search engines are unable to include your pages in search results if they don't have permission to crawl them. Learn more.
Audit error: libUrl.parse is not a function
なーんて、エラーが出ちゃってる。 Learn more のリンク先は404エラーで困ってします。
正しいリンク先は発見した。
しかし、読んでも、何が悪いのかわからない。ブログのソースを何度読んでも noindexなんか書いてない。robots.txtもただしいぞ。
ググっても情報えられないし困ったなぁと思ってた。
google.com も、 yahoo.com もエラー出るぞ。なんかおかしいぞ。robots.txtの仕様が変わったのか?そんなバカな?
と思っていろんなサイトを調べまくると smartwebuser.net でこのエラーが出ないを発見。
なんと、robots.txtが無いサイトではエラーが出ないw
これは、バグっぽいぞと更に調べたら、githubでプロジェクトが進行中だったのね。
で、コメントをサーチしたら、プロジェクトではすでに問題なってるのを発見。
困った時は、オリジナルの情報を。
ってことで、バージョンアップしたら治るでしょう。しばし、待ちましょう。