前の記事では LineLeader だけで終ってしまったので、続きを・・・
他に使用しているセンサーは・・・
・壁や障害物を検知するタッチセンサーを2個
・方位を検知するコンパスセンサー
・傾斜路を検知する3次元加速度センサー
・被災者(缶)を検知するための光センサー
以上を搭載していました。
こちらはYとは違って、新しい技術の実験場となっています。
関東ブロック大会で、コンパスセンサーを初めて使用したのですが、とても役に立ちそうだった(・・・練習では大変役に立っていた・・・でも本番では役に立つ前に途中棄権になってしまった・・・)ので、今度こそ! という気持ちもあったと思います。
しかし、ジャパンオープンのレスキュー会場ではコンパスはあまり役に立たなかったようです。
(他のチームは如何でしたでしょうか?)
3つのアリーナで指す方位が微妙にズレていたり、一階と二階で微妙にズレていたそうです。
それを差し引いても、ライントレース自体もなんだか怪しいダメダメマシンでした。
それ以外は、これまでに蓄積してきた熟成された技術だったので、まあ問題はありませんでした。
レッドゾーンに入れば、スキャン方式で被災者(缶)を発見し、缶を押して避難場所の前まで持って行き、ロボットの後ろにあるフォークリフトで台の上に持ち上げることになっておりました。 しかし、一回もフォークリフトを見せる事ができませんでした。
(残念ですねぇ)
で、見せる事ができ無かったのですが・・・
缶を見つけると、まずは被災者をその場に放置して(笑) 前後左右に壁まで進んでいって、被災者の壁からの距離を測ります。
(LEGO MINDSTORMS NXT のサーボモータってすごい機能を持ってますねぇ)
つまり、被災者が置かれていた座標を記録します。
次に、避難場所の手前の地点(どちらの壁からも30cmの地点)までの距離を計算します。
ロボットは、その計算した距離だけ前後左右に被災者を押します。
これで、被災者が避難場所の手前に来ます。
あとは、ロボットが後ろを向いて、後退しながらフォークリフトを持ち上げれば被災者が避難場所の台の上に持ち上がります・・・という筋書きでした。
この発想は、なかなかだと思います。 さすがソフト屋!
構想は・・・すごいし、プログラムもそれなりに書かれていたのですが・・・ロボットの完成度がいまいちでした。
もう、レスキューAのセカンダリの2010年ルールはソフト屋には無理ってことで。
で、本当は・・・LEGOのカメラシステムで缶の発見をやっていて、プレゼンもそのように書いていたのですが、カメラとLineLeaderを併用すると、何故か誤動作するみたいなので、泣く泣くカメラを外しました。
(ノイズとか、電力とかの問題でしょうか?)
競技の結果はともかく、それが見せられなかったのが悔しかった・・・と本人は言っておりました。