2023年08月31日 Seq2Seq(sequence-to-sequence) 機械翻訳。翻訳や自動字幕、チャットボット等に用いられる。エンコーダとデコーダにRNNを用いて、時系列データを扱うモデル。エンコーダで文章から文脈を抽出する。デコーダで文脈からタスクに応じた単語を出力する。英語の文章などのシーケンスを受け取り、日本語の文章などの別のシーケンスに変換するモデルである。短い文章であれば精度が高いが、文章が長くなるとエンコーダの長さが固定され、長い文章を入れると情報が溢れて情報が喪失されるため、精度が落ちる。 タグ :#G検定#カンペ
2023年08月30日 トピックモデル 文章データの主題=トピックを判断する自然言語処理の手法。統計的潜在意味解析のひとつ。言葉の意味を統計的に解析する。文章を「複数の単語の集まり」と捉え、文章を、単語の共起性に沿って複数のクラスに分類する。そのクラス内の単語が意味する内容を、トピックとする。文章は複数の潜在的トピックから構成されており、それらは確率的に生成されると仮定する。単語はトピックの確率分布に沿って出現すると考えるモデル。トピックモデルは、記事などの探索・分類によく利用される。 タグ :#G検定#カンペ
2023年08月29日 アシロマAI原則 ⇒アシロマAI原則アシロマ=アメリカカリフォルニアの地名。2017年に、人工知能研究の将来を討議した会議において発表されたガイドライン。 人工知能が人類全体の利益になることを目指し、倫理的問題、安全管理対策、研究の透明性などについて23の原則としてまとめたもの。 原則に強制力はない。物理学者のスティーブン・ホーキング、SpaceX CEOのイーロン・マスク、未来学者のレイ・カーツワイル、Skype共同創立者のJaan Tallinnなどが原則への支持を表明。 タグ :#G検定#カンペ
2023年08月25日 ヒンジ損失関数 サポートベクターマシンで用いられる損失関数。判別に成功し、且つ、境界面から大きく離れていればペナルティを課さない(loss = 0)。判別に成功し、且つ、境界面付近ならばペナルティを小さく課す(0 < loss < 1)。判別に失敗し、正解から離れば離れるほど大きなペナルティを課す(1 < loss)。 タグ :#G検定#カンペ