README
crane_plus_examples
このパッケージはCRANE+ V2 ROS 2パッケージのサンプルコード集です。
準備(実機を使う場合)
1. CRANE+ V2本体をPCに接続する
CRANE+ V2本体をPCに接続します。 接続方法は製品マニュアルを参照してください。
※CRANE+ V2本体が接触しないように、十分なスペースを確保してください。
2. USB通信ポートの接続を確認する
USB通信ポートの設定についてはcrane_plus_control
の
README
を参照してください。
正しく設定できていない場合、CRANE+ V2が動作しない、振動する、などの不安定な動きになるので注意してください
3. move_groupとcontrollerを起動する
標準のCRANE+ V2を使用する場合
次のコマンドでmove_group (crane_plus_moveit_config
)と
controller (crane_plus_control
)を起動します。
$ ros2 launch crane_plus_examples demo.launch.py port_name:=/dev/ttyUSB0
Webカメラ搭載モデルを使用する場合
Webカメラ搭載モデルの場合は、次のコマンドを実行してください。
video_device
は使用するWebカメラを指定してください。
$ ros2 launch crane_plus_examples demo.launch.py port_name:=/dev/ttyUSB0 use_camera:=true video_device:=/dev/video0
準備(Gazeboを使う場合)
=======
1. move_groupとGazeboを起動する
次のコマンドでmove_group (crane_plus_moveit_config
)とGazeboを起動します。
$ ros2 launch crane_plus_gazebo crane_plus_with_table.launch.py
Webカメラ搭載モデルを使用する場合
Webカメラ搭載モデルの場合は、次のコマンドを実行してください。
$ ros2 launch crane_plus_gazebo crane_plus_with_table.launch.py use_camera:=true
CRANE+ V2の前にArUcoマーカ付きのBoxを置いたシミュレータ環境を使用する場合は次のコマンドを実行します。 aruco_detectionサンプルを実行する際に使用することを想定しています。
$ ros2 launch crane_plus_gazebo crane_plus_with_aruco_cube.launch.py use_camera:=true
CRANE+ V2の前に赤いBoxを置いたシミュレータ環境を使用する場合は次のコマンドを実行します。 color_detectionサンプルを実行する際に使用すること想定しています。
$ ros2 launch crane_plus_gazebo crane_plus_with_red_cube.launch.py use_camera:=true
サンプルプログラムを実行する
準備ができたらサンプルプログラムを実行します。 例えばグリッパを開閉するサンプルは次のコマンドで実行できます。
$ ros2 launch crane_plus_examples example.launch.py example:='gripper_control'
終了するときはCtrl+c
を入力します。
Gazeboでサンプルプログラムを実行する場合
Gazeboでサンプルプログラムを実行する場合はuse_sim_time
オプションを付けます。
$ ros2 launch crane_plus_examples example.launch.py example:='gripper_control' use_sim_time:=true
Examples
demo.launch.py
を実行している状態で各サンプルを実行できます。
実行できるサンプルの一覧は、examples.launch.py
にオプション-s
を付けて実行することで表示できます。
$ ros2 launch crane_plus_examples example.launch.py -s
Arguments (pass arguments as '<name>:=<value>'):
'example':
Set an example executable name: [gripper_control, pose_groupstate, joint_values, pick_and_place]
(default: 'gripper_control')
gripper_control
グリッパを開閉させるコード例です。
次のコマンドを実行します。
$ ros2 launch crane_plus_examples example.launch.py example:='gripper_control'
pose_groupstate
group_stateを使うコード例です。
SRDFファイルcrane_plus_moveit_config/config/crane_plus.srdf
に記載されているhome
とvertical
の姿勢に移行します。
次のコマンドを実行します。
$ ros2 launch crane_plus_examples example.launch.py example:='pose_groupstate'
joint_values
アームのジョイント角度を1つずつ変更するコード例です。
次のコマンドを実行します。
$ ros2 launch crane_plus_examples example.launch.py example:='joint_values'
pick_and_place
モノを掴む・持ち上げる・運ぶ・置くコード例です。
次のコマンドを実行します。
$ ros2 launch crane_plus_examples example.launch.py example:='pick_and_place'
Camera Examples
Webカメラ搭載モデルのカメラを使用したサンプルコードです。
「Webカメラ搭載モデルを使用する場合」の手順に従って、
demo.launch
を実行している状態で、
各サンプルを実行できます。
実行できるサンプルの一覧は、camera_example.launch.py
にオプション-s
を付けて実行することで確認できます。
$ ros2 launch crane_plus_examples camera_example.launch.py -s
Arguments (pass arguments as '<name>:=<value>'):
'example':
Set an example executable name: [color_detection]
(default: 'color_detection')
aruco_detection
モノに取り付けたArUcoマーカをカメラで検出し、マーカ位置に合わせて掴むコード例です。 マーカはaruco_markers.pdfをA4紙に印刷して、一辺50mmの立方体に取り付けて使用します。
検出されたマーカの位置姿勢はtfのフレームとして配信されます。
tfのframe_id
はマーカIDごとに異なりID0のマーカのframe_id
はtarget_0
になります。
掴む対象はtarget_0
に設定されています。
マーカ検出にはOpenCVを使用しています。
次のコマンドを実行します。
ros2 launch crane_plus_examples camera_example.launch.py example:='aruco_detection'
Videos
color_detection
特定の色の物体を検出して掴むコード例です。
デフォルトでは赤い物体の位置をtfのフレームとして配信します。
tfのframe_id
はtarget_0
です。
色検出にはOpenCVを使用しています。
次のコマンドを実行します。
ros2 launch crane_plus_examples camera_example.launch.py example:='color_detection'