Sinnvoll Opencv Python Beispiel Python QT OpenCV Line Detection Demo & Code Walk Through
Opencv Python Beispiel

Sinnvoll Opencv Python Beispiel Python QT OpenCV Line Detection Demo & Code Walk Through - Hi, ich bin neu in dieser form von sachen. Ich habe eine college-mission: es beinhaltet einen code in opencv, der in einem linux-laptop läuft und positionen (koordinaten) gibt; und habe sie zur himbeerpy, die die position von zwei servomotoren steuert. Kennen sie bereits eine art, mit der raspberripy die kommunikation zu öffnen (spaziergänge im pc)? Danke im voraus. Jeder der beiden linux-basierten laptops verfügt über intel-32-bit- und 64-bit-architekturen und außergewöhnliche usb-webcams. Die laptops wurden verwendet, um den code zu erhöhen und zu testen, sowie um eine basis für die allgemeine gesamtleistung zu liefern. Viele elemente können sich dramatisch auf die fähigkeit der anwendung auswirken, die verarbeitung zu fotografieren. Sie bestehen aus dem / den prozessor (en) des pcs, ram, hdd, gpu, usb, laufendem gerät und der video-seize-länge, dem kompressionsverhältnis und der bildrate der webcam. Es gibt beträchtliche variationen in all diesen elementen, wenn man einen durchschnittlichen pc zum raspberry pi auswertet.

Danke, gary. Es verwandelte sich in einen super post und was genau ich suche. Raspi 2b könnte mein (hoffnungsvolles) projekt unterstützen, das on-board-visual-slam und hindernisvermeidung auf einem quadcopter beinhaltet. Geschweige denn ekf und solche sachen. Hast du jemals versucht, ein playstation 3 auge zu benutzen? Ich benutzte eines davon für eine mission, die mit einem antiken atom-netbook betrieben wurde. Mit der eingebauten cam des netbooks wurde die gesamtleistung fürchterlich. Durch den einsatz des ps3-auges werden die fps stark verbessert. Ich wette, dass es eine menge on-board-verarbeitung macht und vielleicht einhundertzwanzig fps bekommen könnte.

Das erste große projekt bestand darin, den lokalen c-code, der auf intel-ia-32- und 64-bit-x86-64-prozessor-basierten laptops geschrieben wurde, auf die arm-architektur des raspberry pi zu übertragen. Nach dem versäumnis, effizient zu c-c-code die verwendung von cross-tools-ng, mehr als oft nicht wegen meiner verlust von pass-compiling genießen zu sammeln, griff ich auf die verwendung von g, um den c-code ohne verzögerung auf der himbeere zu montieren pi. Hi, ich experimentierte in der vergangenheit mit der cvblobs-bibliothek und schrieb einen persönlichen algorithmus, um die erkennung in graustufenbildern zu beschleunigen. Dieser algo läuft in o (breite * oben). Möglicherweise kann es die erkennung auf rpi beschleunigen. / Kinectgrid / tree / grip / lib / blobtree leider hat die kinect nie an meinem pi gearbeitet, wegen usb-switch-problemen. Mit der raspi cam konnte ich versuchen, meine kleinen experimente zu behalten. Ich bin derzeit auf der suche nach einer möglichkeit, die blob-erkennung auf rpis gpu zu bewerten. Ich habe keine ahnung, wie schwer das sein könnte. Grüße yggdrasil. Ich sollte mit einem weniger komplizierten projekt beginnen und kompilieren und einen blick auf ihr unternehmen werfen.