タグ 画像認識 が登録されている動画 : 39 件中 1 - 32 件目
種類:
- タグ
- キーワード
対象:
【LEGO】レゴでレゴのための選別装置を作ってみた
レゴでレゴの選別装置を作りました。実用志向なので前回のように見て面白いものではありません。blogはじめました⇒http://legokarakuri.blog91.fc2.com/ mylist/24275641
ぷよぷよ 自作AIで100万RTA
以前の動画 → sm16743811
Win版ぷよぷよフィーバーの画面を読み込んで勝手に操作するプログラム第2弾です
現在段位戦参戦してみました。つぶしに弱いという欠点が露呈しました
ユーザ名:AIm@s
●連絡取りたいと言ってくださった方がいたので補足
プロフィールにtwitterアカウントが書いてありますので、そちらにどうぞ
前回動画からの主な改良点
連鎖力の向上:平均55000(11.7連鎖相当) → 89000(14.2連鎖相当)
10万越え発火確率 0.4% → 28.5%
まわし対応: 2段越えまで回し可
AIの処理が重いため、ストップウォッチツールと録画ツールの時間がずれています。
どちらが正確かわからないため、タイム不明です。
【日本の技術力】 超高速知能システムの世界 【東大 石川小室研究室】
コイツぁ凄ぇぇぇーーーっっっ!!! ←まぁ落ち着け
東京大学 石川奥研究室HP ⇒ http://www.k2.t.u-tokyo.ac.jp/index-j.html 物理世界の限界に挑んでます。
【注】 平成23年4月1日より、小室孝先生の異動に伴い「石川小室研究室」から「石川 奥 研究室」に研究室名が変更されています。
何が凄いって超高速での画像認識と、それを基にターゲットを追尾してしまうメカトロ技術が凄いw
この分野では海外を圧倒しているものと思われ。
これもまた技術基盤の裾野が広い「日本ならではの技術」じゃないんかな。
【情報処理部】ゆゆ式で画像認識してみた【YOLOv3】
リアルタイム画像認識YOLOv3を使用して
ゆゆ式の主要キャラ7人を識別するシステムを構築しました。
学習データにはゆゆ式の8話と9話(OP、EDを除く)から取得した画像データ1218枚を使用しています。
学習後は動画の通り、テストデータとしてゆゆ式OPを使用しています。
詳細は以下の記事にまとめています。
https://qiita.com/doborun/items/4b8517127677f676c4be
画像認識と物理エンジンでリンとミクにさわってみた
元旦ですが相変わらず暇なので、sm1910882に感動したうp主はFlashで再現出来ないものかと思って作ってみました。
ヘッポコなので画像認識がかなり怪しい感じですが、それなりに動くものが出来ました。
背景が白い場合は、肌色と相性が悪いので黒い服や黒い手袋等を装着するといい感じになります。
実際に遊べます(要FlashPlayerとWebカメラ)→http://aser.s321.xrea.com/flash/rin02/Rin02.html
[2008.1.2 15:35] 3作目→sm1929901
1作目→sm1918258
マイリスト→mylist/4239739
アイマスPVでPTAMテスト
カメラ位置を検出することを目標に、PTAM(http://www.robots.ox.ac.uk/~gk/PTAM/)を試してみました。一応それらしい結果が出ましたが、問題も多くてまだ実用には至らなそうです。
問題点
・ロングだとカメラ移動が早すぎて全く追従できない
・(試してないけど)アップだと取得できる特徴点が少なくてダメだと思う
・上下動の大きいダンスだと、その上下動に引きずられやすい
・初期マップ/ステレオペアを初期化するタイミング(スペースキーを押すタイミング)がとても難しい。30回くらい試して、やっとこの動画ができた。
【パッケージから】巡音さんがやってきた【召喚】
パッケージを見ていたら、なんだかムラムラしてきたからやってみた。次のデータと音楽をお借りしました。3Dデータ[http://anomarokarintou.blog37.fc2.com/]。音楽:たこルカぽっぴっぽーsm6040129。・・・そのうち曲も投稿できるよう修行します。(2009/4/13)躍らせてみた→sm6735310
OpenCVでネギを振ってみた
アッチの世界を探求するためには、マトリクスに挑まなければならないので、ちょっと休憩してOpenCVで初音ミクにネギを振ってもらった。
リアルマリオカートを作る。ver.0.2
Flash + Gainer でリアルマリオカートを作っていきたいと思います。今回は画像認識を行ってマリオの位置を特定しています。大まかな流れは、背景差分で動体検知→色域でマリオを特定しジュゲムを追従させています。画像認識処理の基本部分はできたので、次回以降はアイテム取得やコースアウト判定などの応用部分を実装していきたいと思っております。http://www.nicovideo.jp/watch/sm5580922 ver.0.1
拡張現実(AR)を自作ソフトウェアでやってみた
OpenCVとOpenGLを使って拡張現実.まずはARToolkitと同じことをやってみた.最終的にはマーカーを使わずにやる予定.ソースコードとバイナリは後ほど公開いたします.--------------マーカー使わないでできました.sm6764313-------------投稿動画一覧myvideo/11684436
画像認識使ってルンバをもっともっと早く動かしてみた
前々回→sm17672652 前回→sm17702944 前回の段階である程度察しはついてたことがあったので、試してみたら画像認識からルンバ制御へのフィードバックがかなり早くなった。これ以上の高速化とか多分大変な割にあんまり楽しくないので、ちょっと違う方向をいくつか攻めたいなぁ・・・。
宮崎駿が怒った例のシーン 人工知能はどう見える?
私も超人口生命LISで遊んでた手前あの場面宮崎駿に怒られないように認識してもらうにはどうしようかと思い思いつきと勢いでやりました。あんな姿だと画像認識上ではあんまり人間には見えなかった様なのでやっぱり怒られます。すいやせん
【画像認識】兄貴の声でMW2を実況してもらった(未完成?)
一部のPCゲームでは、ファイル差し替えやMODなどでプレイ中にいろいろな音声を割り込ませる事が可能ですが、コンシューマ機でも似たようなことが出来ないか模索した結果、AutoHotKeyというソフトを使って実現(?)させました。ただし、MW2ではステージごとの画面の明るさの違い等で容易に誤検出が発生するため、実用と言えるレベルではありません。あくまでも参考程度にご覧下さい。
動画のキャプチャ環境
キャプチャカード : Intensity Pro/キャプチャソフト : アマレコTV/入力 : コンポジット 1280x720(720p)
お借りした動画
sm9772574/sm4129313/sm9465249
参考にさせていただいたサイト
AutoHotKeyJP : http://sites.google.com/site/autohotkeyjp/
mylist/7355167
パズルゲーム四川省 自動解析プログラム
パズルゲーム四川省をやっていて、手づまりの多さと自分のヘタレさに失望して自動解析プログラムを作りました。
この動画はそのソフトの説明です。
初めて動画とか作ったので温かい目で見てください。
このプログラムは、配布していません。
アップローダーもどこ使えばいいのかわからないしね。
作ったプログラムとか恥ずかしくて配布できない。
配布して欲しいって人がそこそこいたら配布しようかと思います。
バグとか取り切って満足しても配布すると思います。
音楽素材提供 MusMus様
http://musmus.main.jp/
Deep Live!ラブライブ!でディープラーニングを試すやつ(復刻版)
この動画の作り方
1、μ'sの画像を9491枚集めます(顔のみを丁寧に切り出すこと)。
2、TensorFlowとかChainerをインストールします。
3、GPU(GTX-1080以上)を搭載したマシンで学習させます(CPUだけだと24時間以上かかります)。
4、ライブ動画を読み込ませて、OpenCVで枠をつけます。
5、どのご家庭にもあるμ'sの画像データベースと、Ubuntu搭載GPUマシンがあれば、簡単にこの動画のようなことを実践出来ます。
以上。
This movie is edited by Mashu Sakai of Graduate School of Engineering, Kanagawa University.
再帰的ライフゲーム
再帰的なライフゲームです。 ライフゲームの画面を表示→カメラで撮影→1ステップ進める→画面に表示する。 という流れになっています。 蛍光灯のノイズでブリンカーが壊れたり、勝手に増殖したりと、楽しいことになっています。いちおうグライダーとかもちゃんとできてます。 Python + VideoCapture + PIL + PyGameで作成。
ヘリコプタの自律飛行制御
PTAM(http://www.robots.ox.ac.uk/~gk/)を使って、ヘリコプタをホバリングさせてみました。2010/02/18 起動追従実験も追加しました。sm9757082
【NT京都】全自動五目並べマシンを作ってみた【展示】
画像認識,人工知能,モーター制御などを駆使して全自動で五目並べをするロボットを作りました. 2011年3月27日(日)に行われるNT京都で展示する予定です. まだ碁石の吸着機構や制御回路などが不調ですが,本番に向けて改善していこうと思います. NT京都に参加される方は是非遊んでみてください.
レーザーでミニカーに無線給電してみた
太陽電池付きミニカーにレーザー光を照射させ、画像処理で追っかけながら無線給電をしてみました。
艦これ支援ツール『おりこうさんな秘書』解説動画 1:チュートリアル編
画像認識で頑張る艦これ支援ツール『おりこうさんな秘書』を以前より公開しています。
そこでこのたび、操作についてのチュートリアル動画を作ってみようと思いました。
タイトルにもありますように、続編も今後作っていく予定です。
今回の内容のスライド→http://www.slideshare.net/YSRKEN/1-66169474
Twitterアカウント→https://twitter.com/orikou_hisyo
専用スレ→http://anago.open2ch.net/test/read.cgi/software/1424098430/
最新版→https://github.com/YSRKEN/orikou_hisyo/releases/
過去に公開した動画→
『【艦これ】便利なスクショツール+αを作ってみた』(sm26755860)
次回→シーン認識編(sm29685978)
全体のマイリスト→mylist/57148674
最高峰の特定班「人工知能」の画像認識技術
現在では多くの場面で活躍するAIの画像認識技術。
その歴史は1960年代から始まっており、意外にも古い。
数々の進化を重ねてきたAI技術が何処に向かうのか大胆予想。
皆さんにも、AI技術の現状に目を向けて未来がどうなるのか考えて頂きたい。
Google、ニューラルネットワークで写真の場所を特定する「PlaNet」を開発。人間を超える能力を発揮
http://japanese.engadget.com/2016/03/01/google-planet/
※開発されても一般向けのソフトウェアにならない可能性あり。
笑福巫女コンビ2016がお送りしました。
マイリスト:http://www.nicovideo.jp/mylist/55553695
声・編集:不屈の敗走者アヤ(Twitter:@FukutsunoAya)
撮影・編集:ほなちゃん(Twitter:@ho7_chan)
艦これ支援ツール『おりこうさんな秘書』解説動画 2:シーン認識編
今回の内容のスライド→http://www.slideshare.net/YSRKEN/2-66206602
Twitterアカウント→https://twitter.com/orikou_hisyo
専用スレ→http://anago.open2ch.net/test/read.cgi/software/1424098430/
最新版→https://github.com/YSRKEN/orikou_hisyo/releases/
動作プレビュー→
『【艦これ】便利なスクショツール+αを作ってみた』(sm26755860)
前回→チュートリアル編(sm29680924)
次回→編成まとめ編(sm29746522)
全体のマイリスト→mylist/57148674
艦これ支援ツール『おりこうさんな秘書』解説動画 3:編成まとめ編
今回の内容のスライド→http://www.slideshare.net/YSRKEN/3-66594633
Twitterアカウント→https://twitter.com/orikou_hisyo
専用スレ→http://anago.open2ch.net/test/read.cgi/software/1424098430/
最新版→https://github.com/YSRKEN/orikou_hisyo/releases/
動作プレビュー→
『【艦これ】便利なスクショツール+αを作ってみた』(sm26755860)
前回→シーン認識編(sm29685978)
次回→
全体のマイリスト→mylist/57148674
人工知能に「君の名は。」は理解できるのか?
タイトル通り、実写画像の認識に使われてたモデルでアニメがどこまで分かるのか実験してみました。darknetプロジェクトの推進者の皆様に感謝と敬意を表します。あとこうした認識手法に対する楽しい話題を提供して下さった面識のないお二方にも僕から勝手に敬意と謝意を表して参考元http://pjreddie.com/darknet/yolo/githubhttps://github.com/pjreddie/darknet
画像認識使ってルンバをもっと早く動かしてみた
前出の動画→sm17672652 画像検出のプログラムに手を入れてもっと早く動かせるようにしました。3倍位は速く動かせるようになったと思います。画像検出の速度が遅いと、ルンバが行き過ぎたりして安定せず、ふらふらした動作になったり、関係ない方向向いたりするので、この辺は結構重要です。
【作ってみた】人顔を笑い男にしてしまうカメラ【アプリ】
OpenCVを使った画像認識で人顔にモザイクをかけるついでに笑い男にしてみたので動画にしてみました。
イケメンだろうがなんだろうが我々の手でただの笑い男にしてしまおうではありませんか。
(※ストア配信の予定はありません←)
愚直に毎フレーム計算しているので、スマートフォンだとなかなか重いです。
高速化には前フレームとの差分で大雑把に位置推定してあげるとか必要そうですね。
【実装環境】
iPhone5S - iOS 8.1
Swift + Objective-C + C++ with OpenCV
【提供】
BGM:YouTube Audio Library(https://www.youtube.com/audiolibrary/music)
【リンク】
YouTubeチャンネルでも公開中!
https://www.youtube.com/channel/UCIde7ASXDXtQ9oKjZIaorIA
作ってみたリスト:mylist/46936692
人工知能に「君の名は。」は理解できるのか? (BGM付き)
http://www.nicovideo.jp/watch/sm30090733こちらに音楽がついたもの
タイトル通り、実写画像の認識に使われてたモデルでアニメがどこまで分かるのか実験してみました。
画像認識使ってルンバを少し賢く動かしてみた
前々々回→sm17672652 前々回→sm17702944 前回→sm18706436 前回の段階で高速化的なことはあんまりやることないと思っていたのですが、制御的な部分に全く手を入れてなかったことを思い出しました。そこで、いわゆるP制御というやつを入れてみました。理屈自体は超簡単なわけですが、こんな簡単なことでもこんなに効果があるんですねぇ・・・ ※なんか妙な音が紛れ込んでますが、作業中にかけてたBGMですw
日本自動車研究所/平成24年度一般公開 小型トラックの自動運転
2012年4月21日撮影
一般財団法人日本自動車研究所(JARI)の一般公開。
そこで公開された「小型トラックの自動運転」です。
ここでは1台で走行していますが、研究の目的は車間距離4m・時速80キロで隊列走行を行い、
スリップストリームによって燃費の向上を図る事とか。
この道路に位置確認用のマーカー等は設置されていません。
コンピュータはカメラで道路の白線を読み取って操縦しているとの事です。
投稿した動画 mylist/28228517
OpenPose アイドルマスター OFA 99 Nights (四条高音, 我那覇響, 如月千早, 菊地真, 三浦あずさ) ロングカメラ
2014年 OFAの99Nightsのダンサンブルが良かったので、OponPoseで変換してみました。
認識はだいぶおちますね・・・。
改めて思うに、OpenPoseは人体用なのに3Dキャラを認識できるのに驚きですね。
今までは、人間 → キャラだったけど、キャラ → キャラも可能になったのは面白いと感じます。
OpenPoseからMMDへの変換してる兄貴もいるようなので、モーションのマニュアルインプットの工数改善になりそう。
あと、4K画質&60FPSに出来るようにTecoGANも試してみたいところ。
試してみたい方は、福山大の金子邦彦研究室のインストール手順を参照ください。
https://www.kkaneko.jp/db/pose/tryopenpose.html
BAMBOO麻雀攻略アプリ”BambooHarvester”解説
GameDesign様作成のFlashゲーム
”Bamboo麻雀”
https://www.gamedesign.jp/flash/bamboo/bamboo.html
を攻略するWindows向けアプリケーション
"BambooHarvester"
https://github.com/daibs/BambooHarvester
の紹介動画です
Flashが終了するため、餞別として作成しました
高画質版
https://youtu.be/nNckpSzeMpk