AI
今回改善した点について How要素 What要素 実行例 今後について 今回改善した点について 全体を通し、CaboChaを用いて判別する場合はチャンク毎に繋げて出力するように改善しました。 How要素 How要素は文末から探索し、係り受け先がない要素から助詞までの…
KNPを用いた手法 ソースコード 実行例 次回の予定 KNPを用いた手法 KNPは地名や人名を正確に分類できるためWhen/Where抽出する時に役立ちますが、 係り受け解析は文節ではなくチャンクごとに分類するCaboChaの方が正確であることが多いです。 そのため、When…
KNPのセットアップ 5w1h抽出への応用 実行例 次回の予定 KNPのセットアップ 前回の記事の通り、KNPを使用するとより精度が向上すると考えられるため、以下の記事を参考にKNPをセットアップしました。 qiita.com 以下のマニュアルを参考に実際に動作させて、c…
精度向上に向けて KNPとは Cabochaの方が優れていること KNPとCabochaを組み合わせた手法の検討 精度向上に向けて 前回までで、助詞がある場合は高い精度で抜き出すことができるようになりました。 更なる精度向上のための手法について調査を行ったところ、K…
係り受け解析を用いた手法の検討 ソースコード ステップ1 ステップ2 次回の予定 係り受け解析を用いた手法の検討 前回、係り受け解析による手法は文ごとに区切られていないと効果がないことが分かりまししたが、 Siri等の音声サービスを使用する場合は基本文…
現在の課題 係り受け解析 検討方針 CaboChaAnalyzerのセットアップ 精度向上 次回の予定 現在の課題 現在の課題は、連用形の場合を考慮できないこと(「〜する人」などの場合「〜する」をHowとしてしまう)です。 つまり、修飾語を区別できていません。 この問…
Whatの抽出 その他要素の抽出精度の向上に向けて WhereやWhenの抽出が簡単なものは先に抽出 抽出した時に意味が通る様に前の要素まで抽出 How要素抽出要素の追加 コードの実行結果 今回分かった課題 Whatの抽出 まず、Whatとなるパターンは以下の二つの場合…
出力形式の変更 Whenの抽出 Whenとなる要素の分類 入出力の結果 次回の予定 出力形式の変更 前回までの出力の形式を変更し、入力の文に直接要素名を出力する様にしました。 これにより、誤認識などがわかりやすくなりました。 Whenの抽出 Whenとなる要素を二…
Howの抽出精度向上 前回の課題 課題2と3の解決策 前回との結果の比較 前回の結果 今回の結果 ソースコード: 次回の予定 Howの抽出精度向上 前回の課題 前回は下記4点の課題がありました。 「~ね」がある場合は実際にHowになりうる場合もありますが、ただ除…
Howの抽出 実行結果 考察 次回の予定 Howの抽出 「どのように」を表すHowのパターンは、大きく分けて以下の二種類のパターンが考えられます。 走る、行く のような動詞 です、ます のような助動詞 この二つのパターンに共通するのは基本形、終止形であること…
YouTube自動生成字幕をテストデータとする方法の検討 テスト結果 次回の予定 YouTube自動生成字幕をテストデータとする方法の検討 YouTubeには動画を音声認識してキャプションを生成する機能があります。 この機能はGoogle音声検索で導入されている技術とほ…
前回作成したプログラムの課題 課題の解決策 抽出器の改良 おわりに 前回作成したプログラムの課題 [前回の記事(https://www.itd-blog.jp/entry/5W1H-AI-2)の実行結果3では、2つの誤検知が発生していました。 一つ目は固有名詞である"北多摩病院"を一語とし…
新しい手法 実行結果1 実行結果2 実行結果3 おわりに 新しい手法 前回のCBSPを参考に、5W1Wを抽出する方法を考えました。 ステップ1 テキストをMeCabを用いて形態素解析 ステップ2 固有名詞を抜き出し、特徴的なパターン(oo病院、xx時など)と一部一致したら…
そもそも、5W1Hとは? 目標と方針 従来の手法 表層格指向パーシングCBSP(Case-Based Shallow Parsing)[2] 精度 形態素解析ソフト(MeCab)のセットアップ おわりに 参考文献 そもそも、5W1Hとは? Wikipedia[1]によると、下記のように説明されています。 5W1H…
クリアデスクAIの試作 データ準備 1. 撮影 2. 動画の形式変換 3. アノテーション 学習 1.YOLOv3をクローン 2.YOLOv3の学習済みウエイトの用意 3.データの変換 4.学習の実行 テスト 今回のまとめ 参考文献 この記事は クリアデスク 第二回 になります。 今回…
背景 クリアデスク 本シリーズでやること 参考文献 この記事は、クリアデスクチェックAIの開発の第1回目の記事になります。 背景 現代では、個人のデータが収集され利用される時代になっていることは明らかです。また、データの本来の持ち主である一般の人の…
概要 ファインチューニングとは? keras-YOLOv3でのファインチューニング方法 train_bottleneck.pyの実行 実際に検出してみた 次回 概要 前回はkeras-YOLOv3で独自データを用いた学習を行う方法を紹介しましたが、今回は学習済みモデルのファインチューニン…
特徴量の抽出 モデルの改良 今回はモデルの改良について考えていきます。今回のAIの概要は白黒画像からの人認識です。白黒画像なので、カラー画像の人認識に比べると精度が下がってしまいます。そのため精度を上げるための工夫、改良が不可欠になります。 特…
はじめに 今回作るもの 実装 実装の解説 各種定義 教師データの紐付け テストデータの紐付け 機械学習 最後に はじめに こんにちは! 「顔認証AI:学習用の実装 後編」 を開いていただきありがとうございます! 今回作るもの 前編で紹介した通り、今回は前回…
概要 アノテーション アノテーションファイルはそのままkeras版YOLOv3には使えない フォーマット クラスファイル アノテーションファイルを生成する処理 学習の実行 ResourceExhaustedErrorが出力されてしまう時 ログファイルを使用して続きから学習を行う方…
はじめに 開発環境 この記事で行うこと プログラムの作成 プログラム(main関数)の流れ カメラを利用した物体検出 保存した動画を利用した物体検出 デモ動画 現状の課題 次回以降 最後に はじめに 第1回で紹介した技術を元に、第2回の記事では、カメラ、又は…
はじめに 今回作るもの 実装 実装の解説 全体の準備 水増しの準備 水増し ぼかし処理 閾値処理 反転処理 ランダムにテストデータへ 最後に はじめに こんにちは!「顔認証AI:学習用の実装 前編」 を開いていただきありがとうございます! 前回記述した通り…
はじめに AIカートの物体検出で得られるメリット 利用する技術 背景差分法とは 開発環境 OpenCVとは OpenCVをインストールしよう プログラムの作成 プログラムの流れ 閾値について 次回以降 最後に はじめに このブログでは、「AIカートの物体検出」について…
概要 HOG特徴量+サポートベクターマシン(SVM) 実行結果 Haar-like特徴量分類器 実行結果 まとめ 概要 今回はopenCVを用いた物体検出を試してみます。 HOG特徴量+サポートベクターマシン(SVM) HOG(Histgram Of Gradient) とはおおまかに説明すると、画像の…
概要 インスタンスの作成 AMIの選択 インスタンスタイプの選択 インスタンスへの接続 プログラムの実行方法 CPUとGPUでの速度差 次回 概要 tensorflowを用いた機械学習をAWSサーバーで行うための環境構築方法をご紹介します。 インスタンスの作成 初めのAWS…
本記事の概要 10月(2019年)のVirtual Raceのコース DeepRacerでの結果 コースに対応したモデルの作成 アクションスペースを少なくしたモデルの作成 まとめ 本記事の概要 10月で2019年のDeepRacerのVirtual Raceが終了しました。 先に結果を述べると、最終的…
はじめに この記事で書くこと 1.機械学習とは 2.機械学習の種類 教師あり学習 教師なし学習 強化学習 3.ニューラルネットワーク ニューラルネットワークとは 4.畳み込みニューラルネットワーク(CNN) 畳み込みとは 畳み込み処理の流れ Pooling処理 Max Poolog…
概要 機械学習 機械学習とは 物体検出 参考にするリポジトリ 環境構築 python3 pip tensorflow kerasとそのほかのライブラリ 最後に 概要 前回のブログではアノテーションについてお話ししました。次はこのブログの本命機械学習の準備について話を進めていき…
はじめに この記事で書くこと 画像データを収集する 下準備 実装 実装の解説 初期設定部分 顔データ取得部分 フォルダに画像を振り分ける部分 結果確認 最後に はじめに こんにちは!「顔認証AIブログ第3回」 を開いていただきありがとうございます! 今回の…
TensorRT化のテスト KerasからTensorRT化 結果 注意点 課題 使用したモデル 参考文献 前回までのモデルはPythonを使用していました。しかし、PythonはCやC++に比べると遅いので、書き換えることで高速化することが出来ます。 ここで便利なのが以前紹介したTe…