2010年7月28日 星期三

將iPhone畫面抓到LabVIEW裡做即時影像分析

最近又完成了一個突破性的實驗,上次跟各位分享有關iPhone的加速規跟LabVIEW的結合,我一直很好奇,不知道其他iPhone也可不可以帶進來到LabVIEW裡使用,於是先從影像方面下手,看起來iPhone的相機畫面也可以帶進來到LabVIEW使用!

步驟很簡單:

1. 下載一個叫做iWebcamera的app,雖然不是免費的($4.99USD),但是這是現在目前我找到唯一能夠讓Windows的DirectX界面直接抓到iPhone的相機畫面。下載到iPhone之後,記得在Windows那端還要在安裝它的一個小小driver才能用。

http://itunes.apple.com/us/app/iwebcamera/id369617568?mt=8

對應Windows driver下載點:

http://www.drahtwerk.biz/EN/Products/iPhone/iWebcamera/Drivers.aspx

這個App原本是讓電腦上沒有安裝webcam的朋友們也可以透過這個app來用iPhone的相機來替代webcam,所以有了這個app,就直接可以用iPhone的畫面來接到MSN或skype來進行時訊。如果有灌NI Vision Acquisition Software的話,DirectX的相機應該也可以被MAX偵測到。以下則是我MAX的畫面:

未命名

沒想到MAX有抓到,並且按Grab也可以很順利的將畫面抓進來。

DSC00918

接著就把MAX關掉,直接用以前LabVIEW寫好的物件顏色追蹤程式來測試。這時候我是用IMAQdx的含式來寫的,相機指向MAX裡面所偵測到的相機名稱就好了。例如,抓紅色物件:

未命名2

從iPhone看到的畫面:

DSC00923

看來iPhone也是適合開發機器人的平臺! 很可惜,現在只缺一些I/O訊號,要不然iPhone就真的可以拿來當機器人的核心!

-John

3 則留言:

  1. 目前新聞有看到iPhone的Audio孔接一狀置即可像刷卡機一樣,就像是輸入狀置,原來的接耳機是一輸出,總而言之,藉由Audio孔開發一裝置來當I/O應該是可行的

    回覆刪除
  2. 請問這有距離限制嘛?

    回覆刪除
  3. 應該是說,若物件在iphone相機的可視範圍裡都可以抓。所以如果物件太遠,相對的物件就會看起來很小,那就很難辨識嘍。

    回覆刪除