最近又完成了一個突破性的實驗,上次跟各位分享有關iPhone的加速規跟LabVIEW的結合,我一直很好奇,不知道其他iPhone也可不可以帶進來到LabVIEW裡使用,於是先從影像方面下手,看起來iPhone的相機畫面也可以帶進來到LabVIEW使用!
步驟很簡單:
1. 下載一個叫做iWebcamera的app,雖然不是免費的($4.99USD),但是這是現在目前我找到唯一能夠讓Windows的DirectX界面直接抓到iPhone的相機畫面。下載到iPhone之後,記得在Windows那端還要在安裝它的一個小小driver才能用。
http://itunes.apple.com/us/app/iwebcamera/id369617568?mt=8
對應Windows driver下載點:
http://www.drahtwerk.biz/EN/Products/iPhone/iWebcamera/Drivers.aspx
這個App原本是讓電腦上沒有安裝webcam的朋友們也可以透過這個app來用iPhone的相機來替代webcam,所以有了這個app,就直接可以用iPhone的畫面來接到MSN或skype來進行時訊。如果有灌NI Vision Acquisition Software的話,DirectX的相機應該也可以被MAX偵測到。以下則是我MAX的畫面:
沒想到MAX有抓到,並且按Grab也可以很順利的將畫面抓進來。
接著就把MAX關掉,直接用以前LabVIEW寫好的物件顏色追蹤程式來測試。這時候我是用IMAQdx的含式來寫的,相機指向MAX裡面所偵測到的相機名稱就好了。例如,抓紅色物件:
從iPhone看到的畫面:
看來iPhone也是適合開發機器人的平臺! 很可惜,現在只缺一些I/O訊號,要不然iPhone就真的可以拿來當機器人的核心!
-John
目前新聞有看到iPhone的Audio孔接一狀置即可像刷卡機一樣,就像是輸入狀置,原來的接耳機是一輸出,總而言之,藉由Audio孔開發一裝置來當I/O應該是可行的
回覆刪除請問這有距離限制嘛?
回覆刪除應該是說,若物件在iphone相機的可視範圍裡都可以抓。所以如果物件太遠,相對的物件就會看起來很小,那就很難辨識嘍。
回覆刪除