<launch>
<!--...................................
- Load URDF to param server
- Robot State Publisher
- Rviz with description from file.rviz
- Joint State Publisher with GUI
.......................................-->
<arg name="model" default="$(find visbot)/urdf/visbot.urdf"/>
<arg name="gui" default="True" />
<param name="robot_description" textfile="$(arg model)" />
<param name="use_gui" value="$(arg gui)"/>
<node name="robot_state_publisher" pkg="robot_state_publisher" type="state_publisher" />
<node name="rviz" pkg="rviz" type="rviz" args="-d $(find visbot)/urdf.rviz" respawn="true"/>
<!--<node name="rviz" pkg="rviz" type="rviz" args="-d $(find visbot)/urdf.rviz" required="true" />-->
<node name="joint_state_publisher" pkg="joint_state_publisher" type="joint_state_publisher">
<param name="/zeros/YAW" value="1.570796327"/>
<param name="/zeros/PITCH" value="0.785398163"/>
<rosparam param="/source_list"> [/WheelsState] </rosparam>
</node>
<!--.......................................................................-->
<!--........................................................................
- jointrepnode Replublicador de la info de los servos
- rosserial para comunicarnos con el arduino de la cabeza
- ros arduino para comunicarnos con el arduino de la base
............................................................................-->
<node name="jointrepnode" pkg="visbot" type="jointrepnode"/> <!--nombre de nodo y ejecutable identicos-->
<node name="serial_node" pkg="rosserial_python" type="serial_node.py" args="/dev/ttyACM3" respawn="true"/>
<!--respawn para reiniciar el nodo automaticamente si se cierra-->
<node name="ros_arduino_node" pkg="ros_arduino_python" type="arduino_node.py" output="screen" respawn="true"
respawn_delay="10">
<rosparam file="$(find ros_arduino_python)/config/my_arduino_params.yaml" command="load" />
<rosparam param="/ros_arduino_node/port"> /dev/ttyUSB0 </rosparam>
<!--para poder manipular mas rapidamente el parametro del puerto-->
</node>
<!--.......................................................................-->
<!--
- Llamada a los servicios que encienden las camaras
- Republicadores de imagenes de camara izquierda y derecha
- stereo image proc
-->
<node name="ss" args="call /left/camera/start_capture" pkg="rosservice" type="rosservice"/>
<node name="sss" args="call /right/camera/start_capture" pkg="rosservice" type="rosservice"/>
<node name="republishLeft" args="compressed in:=/left/camera/image/ raw out:=/stereo/left/image_raw" pkg="image_transport" type="republish"/>
<node name="republishRight" args="compressed in:=/right/camera/image/ raw out:=/stereo/right/image_raw" pkg="image_transport" type="republish"/>
<node ns="stereo" name="stereo_image_proc" args="_approximate_sync:=True _queue_size:=5 _disparity_range:=200" pkg="stereo_image_proc" type="stereo_image_proc"/>
<!--.........................................................................-->
<!-- Choose visualization -->
<arg name="rviz" default="true" />
<arg name="rtabmapviz" default="true" />
<param name="use_sim_time" type="bool" value="False"/>
<!--<arg name="pi/2" value="1.5707963267948966" />-->
<!--<arg name="optical_rotate" value="0 0 0 -$(arg pi/2) 0 -$(arg pi/2)" />-->
<!--<node pkg="tf" type="static_transform_publisher" name="base_to_camera_tf" args="$(arg optical_rotate) /base_link /camera 100" />-->
<!--<node pkg="tf" type="static_transform_publisher" name="base_to_camera_tf" args="0.0 0.0 0.0 0.0 0.0 0.0 /base_link /camera 100" />-->
<!-- Stereo Odometry -->
<!--<node pkg="viso2_ros" type="stereo_odometer" name="stereo_odometer" output="screen">-->
<!--<remap from="stereo" to="/stereo"/>-->
<!--<remap from="image" to="image_rect"/>-->
<!--<remap from="stereo_odometer/odometry" to="/odometry"/>-->
<!--<param name="base_link_frame_id" value="base_link"/>-->
<!--<param name="odom_frame_id" value="odom"/>-->
<!--<param name="ref_frame_change_method" value="1"/>-->
<!--<param name="queue_size" value="5"/>-->
<!--<param name="approximate_sync" type="bool" value="True"/>-->
<!--</node>-->
<!-- ROS navigation stack move_base -->
<!--<group ns="planner">-->
<!--<remap from="openni_points" to="/planner_cloud"/>-->
<!--<remap from="base_scan" to="/base_scan"/>-->
<!--<remap from="map" to="/map"/>-->
<!--<remap from="move_base_simple/goal" to="/planner_goal"/>-->
<!--<node pkg="move_base" type="move_base" respawn="false" name="move_base" output="screen">-->
<!--<rosparam file="/home/ubuntu/catkin_ws/src/VisBot/ConfigFiles/costmap_common_params.yaml" command="load" ns="global_costmap" />-->
<!--<rosparam file="/home/ubuntu/catkin_ws/src/VisBot/ConfigFiles/costmap_common_params.yaml" command="load" ns="local_costmap" />-->
<!--<rosparam file="/home/ubuntu/catkin_ws/src/VisBot/ConfigFiles/local_costmap_params_3d.yaml" command="load" />-->
<!--<rosparam file="/home/ubuntu/catkin_ws/src/VisBot/ConfigFiles/global_costmap_params.yaml" command="load" />-->
<!--<rosparam file="/home/ubuntu/catkin_ws/src/VisBot/ConfigFiles/base_local_planner_params.yaml" command="load" />-->
<!--</node>-->
<!--<param name="cmd_vel/abtr_priority" value="10"/>-->
<!--</group>-->
<!-- Create point cloud for the planner -->
<node pkg="nodelet" type="nodelet" name="disparity2cloud" args="load rtabmap_ros/point_cloud_xyz stereo_nodelet">
<remap from="disparity/image" to="disparity"/>
<remap from="disparity/camera_info" to="right/camera_info_throttle"/>
<remap from="cloud" to="cloudXYZ"/>
<param name="voxel_size" type="double" value="0.05"/>
<param name="decimation" type="int" value="4"/>
<param name="max_depth" type="double" value="4"/>
</node>
<node pkg="nodelet" type="nodelet" name="obstacles_detection" args="load rtabmap_ros/obstacles_detection stereo_nodelet">
<remap from="cloud" to="cloudXYZ"/>
<remap from="obstacles" to="/planner_cloud"/>
<param name="frame_id" type="string" value="base_link"/>
<param name="map_frame_id" type="string" value="map"/>
<param name="wait_for_transform" type="bool" value="true"/>
<param name="min_cluster_size" type="int" value="20"/>
<param name="max_obstacles_height" type="double" value="0.0"/>
</node>
<group ns="rtabmap">
<!-- Visual SLAM: args: "delete_db_on_start" and "udebug" -->
<node name="rtabmap" pkg="rtabmap_ros" type="rtabmap" output="screen" args="--delete_db_on_start --udebug">
<param name="frame_id" type="string" value="/base_link"/>
<param name="subscribe_stereo" type="bool" value="true"/>
<param name="subscribe_depth" type="bool" value="false"/>
<param name="wait_for_transform" type="bool" value="true"/><!--para los warnings de tf-->
<remap from="left/image_rect" to="/stereo/left/image_rect_color"/>
<remap from="right/image_rect" to="/stereo/right/image_rect_color"/>
<!--<remap from="right/image_rect" to="/stereo/right/image_rect"/>-->
<remap from="left/camera_info" to="/stereo/left/camera_info"/>
<remap from="right/camera_info" to="/stereo/right/camera_info"/>
<!--<remap from="odom" to="/odometry"/> -->
<remap from="odom" to="/odom"/>
<param name="queue_size" type="int" value="5"/>
<param name="stereo_approx_sync" type="bool" value="True"/>
<!-- RTAB-Map's parameters -->
<param name="Rtabmap/TimeThr" type="string" value="700"/>
<param name="Rtabmap/DetectionRate" type="string" value="1"/>
<param name="Kp/WordsPerImage" type="string" value="200"/>
<param name="Kp/RoiRatios" type="string" value="0.03 0.03 0.04 0.04"/>
<param name="Kp/DetectorStrategy" type="string" value="0"/> <!-- use SURF -->
<param name="Kp/NNStrategy" type="string" value="1"/> <!-- kdTree -->
<param name="SURF/HessianThreshold" type="string" value="1000"/>
<param name="LccBow/MaxDepth" type="string" value="5"/>
<param name="LccBow/MinInliers" type="string" value="10"/>
<param name="LccBow/InlierDistance" type="string" value="0.02"/>
<param name="LccReextract/Activated" type="string" value="true"/>
<param name="LccReextract/MaxWords" type="string" value="500"/>
<param name="Kp/MaxDepth" type="string" value="8.0"/>
<!-- Disable graph optimization because we use map_optimizer node below -->
<param name="RGBD/ToroIterations" type="string" value="0"/>
</node>
<!-- Optimizing outside rtabmap node makes it able to optimize always the global map -->
<node pkg="rtabmap_ros" type="map_optimizer" name="map_optimizer"/>
<node if="$(arg rviz)" pkg="rtabmap_ros" type="map_assembler" name="map_assembler">
<param name="occupancy_grid" type="bool" value="true"/>
<remap from="mapData" to="mapData_optimized"/>
<remap from="grid_projection_map" to="/map"/>
</node>
<!-- Visualisation RTAB-Map -->
<node if="$(arg rtabmapviz)" pkg="rtabmap_ros" type="rtabmapviz" name="rtabmapviz" args="-d $(find rtabmap_ros)/launch/config/rgbd_gui.ini" output="screen">
<param name="subscribe_stereo" type="bool" value="true"/>
<param name="subscribe_odom_info" type="bool" value="false"/><!--true solo para uso de odometria rtabmap-->
<param name="queue_size" type="int" value="5"/>
<param name="frame_id" type="string" value="/base_link"/>
<param name="wait_for_transform" type="bool" value="true"/><!--para los warnings de tf-->
<remap from="left/image_rect" to="/stereo/left/image_rect_color"/>
<remap from="right/image_rect" to="/stereo/right/image_rect_color"/>
<!--<remap from="right/image_rect" to="/stereo/right/image_rect"/>-->
<remap from="left/camera_info" to="/stereo/left/camera_info"/>
<remap from="right/camera_info" to="/stereo/right/camera_info"/>
<remap from="odom_info" to="/odom_info"/>
<!--<remap from="odom" to="/odometry"/>-->
<remap from="odom" to="/odom"/>
<remap from="mapData" to="mapData_optimized"/>
</node>
</group>
<!-- Visualisation RVIZ -->
<!--<node if="$(arg rviz)" pkg="rviz" type="rviz" name="rviz" args="-d $(find rtabmap_ros)/launch/config/demo_stereo_outdoor.rviz"/>-->
</launch>
martes, 3 de marzo de 2015
domingo, 22 de febrero de 2015
2- Módulo de Visión de VisBot || Parte 1 (Cámaras)
En esta
primera parte sobre el módulo de visión de VisBot trataremos sobre los primeros
pasos en el desarrollo del módulo de visión del robot desde el Hardware utilizado para la captura de imágenes hasta la obtención de imágenes comprimidas capturadas dentro del sistema de ROS.
En primer
lugar mencionar que la visión será estereoscópica y esta será proporcionada gracias a 2 cámaras "RaspberryPiCamera"
cada una de ellas montada sobre una "RaspberryPi B+" a través del puerto MIPI
CSI.
Cada una de
las cámaras tiene las siguientes características destacadas:
Tamaño 25 x 20 x 9 mm
Peso 3 g
Sensor OmniVision OV5647
Resolución de sensor
2592 x 1944 pixels
Framerate Máximo
90 fps
En esta página se puede observar el resto de características
de las cámaras: www.raspberrypi.org/documentation/hardware/camera.md
En ambas Raspberrys (las que controlan cada una de las
cámaras) se ha instalado el mismo Software que consiste en un sistema operativo
denominado "Raspbian" que es una adaptación de Debian preparada para
la RaspberryPi, el Framework de ROS en su versión Indigo y dentro de este un
nodo específicamente diseñado para controlar la "RaspberryPiCamera"
denominado "raspicam_node".
Cada uno de los 2 submódulos de visión formados por " RaspberryPi B+" más
"RaspberryPiCamera" están posicionados a la misma altura pero diferente distancia horizontal entre si manteniendose tambien ambos sobre el mismo eje horizontal y estando sujetos de forma fija encajados en 2 bases de metacrilato con varias perforaciones para poder operar con el Hardware, entre ellas destacan las perforaciones destinadas a que las cámaras puedan captar imágenes del mundo real.
Para instalar "Raspbian" en las Raspberrys nos
hemos basado en este tutorial: Instalación Raspbian.
Para instalar el Framework de ROS Indigo se realizó una
compilación de dicho Framework desde su fuente como se explica en este
tutorial: Instalar y compilar ROS desde fuente en Raspbian.
Una vez que esta operativo el Framework pasamos a la
instalación desde fuente del paquete "raspicam" que contiene el
"raspicam_node" la cual la realizamos dando los siguientes pasos
dentro de la consola de comandos:
1- En primer lugar necesitaremos activar la cámara para que
el sistema operativo la reconozca y podamos operar con ella (aclarar que esta
operación no consiste en encender la cámara). Esto lo haremos dirigiéndonos
a la configuración de la Raspberry con
el comando "sudo raspi-config" y navegando hasta la seccion
"camera" donde tendremos que cambiar el estado a "enable".
2- Seguidamente instalamos algunos paquetes de ROS que
necesitará el nodo "raspicam_node" para funcionar correctamente. El
comando a ejecutar es el siguiente: "sudo apt-get install
ros-indigo-image-transport ros-indigo-image-transport-plugins
ros-indigo-image-transport-plugins ros-indigo-camera-info-manager"
3- Creamos un Catkin WorkSpace para trabajar con ROS
mediante este tutorial: Tutorial para crear un Catkin WorkSpace.
4- Nos dirigimos al WorkSpace que hemos creado y nos
introducimos dentro de la carpeta "src". Una vez dentro de esta carpeta
descargamos en esta el código fuente del "raspicam_node" con esta
instrucción: "git clone https://github.com/fpasteau/raspicam_node.git
raspicam"
5- Volvemos al directorio raíz del WorkSpace y ejecutamos el
comando de ROS destinado a realizar la compilación el cual realizará una
compilación de todos los módulos que haya en el WorkSpace. La instrucción es
esta: "catkin_make"
Una vez que hemos realizado los pasos anteriores el nodo
"raspicam_node" ya estaría disponible para ser ejecutado utilizando la
instrucción de ROS destinada a la ejecución de nodos. En este caso la
instrucción de ejecución será esta: "rosrun raspicam raspicam_node".
Antes de continuar, dar unos apuntes sobre la estructura y
funcionamiento del nodo:
- Publica sobre 2 Topics
"/camera/compressed" y "/camera/camera_info".
Por el Topic "/camera/compressed" se publican
mensajes de tipo "sensor_msgs/CompressedImage" conteniendo cada uno
de los cuales una imagen codificada en "jpeg" ademas de información
adicional como el "time stamp" incluido dentro del "Header"
del mensaje que es un dato que hace referencia al instante de tiempo en el que
se toman las imágenes y que servirá para sincronizar las imágenes tomadas por 2
cámaras distintas. El "Header" mencionado antes es un tipo de dato predefinido de
ROS que al utilizarlo dentro de una definición de tipo de mensaje dentro de
este se recopilará información especial relativa al mensaje cuando este se cree
y dicha información no es necesaria que la tengan todos los mensajes que se
crean en el Framework de ROS pero es útil para los casos en los que es
necesario transmitir dentro de un mensaje el "time stamp". El motivo
por el que se utilizan imágenes comprimidas en "jpeg" es porque de
esta forma se evita congestionar los Topics teniendo en cuenta por ejemplo que
estos Topics pueden estar mandando los
mensajes en una Red local a través de Ethernet.
Por otro lado en el Topic "/camera/camera_info" se
publican mensajes de tipo "sensor_msgs/CameraInfo". Por cada mensaje
de tipo "sensor_msgs/CompressedImage"generado se creará un
"sensor_msgs/CameraInfo" asociado que tendrá el mismo "time
stamp" de la imagen a la que hace referencia. Estos mensajes de tipo
"sensor_msgs/CameraInfo" además de contener el "Header"
también contienen datos sobre la calibración de la cámara y la región real de
la imagen que es capturada por el driver de la cámara, toda esta información se
utiliza para que siempre que se requiera realizar algún tipo de procesamiento
sobre una imagen se tenga también disponibles los parámetros de cámara
asociados a la imagen así como la región de captura.
-Dispone de 3 servicios básicos:
"/camera/start_capture" cuya función es que la
cámara empiece a grabar y se empiecen a publicar mensajes sobre los Topics
mencionados anteriormente.
"/camera/stop_capture" detener la captura de
imagen y la publicación de mensajes en los Topics.
"/set_camera_info" que sirve para almacenar de
forma permanente dentro del paquete del nodo "raspicam_node" los
parámetros de calibración de la cámara. Estos parámetros se almacenarán dentro
del paquete "raspicam" en "/calibrations/camera.yaml"
-Tiene disponibles 5 parámetros configurables:
"width", ancho de las imágenes capturadas. Los
valores de este parámetro tienen la siguiente restricción: 0 < width <=
1920
"height", altura de las imágenes capturadas. Los
valores de este parámetro tienen la siguiente restricción: 0 < height <=
1080
“framerate”,
frecuencia de captura de las imágenes y por lo tanto también frecuencia de emisión
de mensajes por los Topics. Los valores de este parámetro tienen la siguiente restricción:
0 < framerate <= 90
“quality”,
calidad de las imágenes capturadas. Los valores de este parámetro tienen la
siguiente restricción: 0 < quality <= 100
“tf_prefix”, prefijo para el “frame_id”. El “frame_id” es
otro de los atributos del tipo de dato “Header”.
Suscribirse a:
Entradas (Atom)