aptpod Tech Blog

株式会社アプトポッドのテクノロジーブログです

CAN FDの物理層を理解する

  • はじめに
  • そもそもCANの1ビットはどうやって決まるのか
    • 物理層 :Physical coding sub-layer (PCS)
    • Bit Timeを構成するSegment
      • Synchronization Segment (Sync_Seg)
      • Propagation Segment (Prop_Seg))
      • Phase Buffer Segment 1 and 2 (Phase_Seg1 and Phase_Seg2)
    • Synchronization:ノード間のビットタイミング同期
      • Hard synchronization
      • Resynchronization
    • Transmitter Delay Compensation (TDC) : 伝播遅延補償
  • おわりに
  • 弊社のソリューションのご紹介
  • 脚注

はじめに

ハードウェアチームのおおひらです。 本稿では車載の制御通信バス規格として一般的なController Area Network (CAN)の物理層について、その上位側を中心に説明します。

一般的にCAN/CAN FDの仕様について調査するとフレームの種類や構造などのデータリンク層の情報が記載されたドキュメントを目にすることが多いと思います。過去エントリとしては弊社Embeddedチームの久保田の記事(CAN FDことはじめ)だったり、Google検索して出てくるところだとこちらこちらなど。または、Vector社の『はじめてのCAN/CAN FD』 もしかり。

弊社アプトポッドでも、モバイル回線を利用した遠隔車両データ計測を主たるユースケースとしてintdashプラットフォームのCAN FD対応が進んでおり、改めてハードウェア担当として物理層の理解をすべく規格を調査した次第です。 なお用語に関してはCANの規格書 (ISO 11898-1[^1] および BoschのCAN FD仕様書[^2])を参照できるよう、過度に日本語翻訳していません。毎度のことながら、認識に誤りがありましたらご指摘いただけると有難いです。

続きを読む

RustでROS(RoboMaker)のノードを書いてみる

f:id:aptpod_tech-writer:20200421192521j:plain

先端技術調査グループの大久保です。

弊社では現在、クラウド上でROSの開発が行えるAWS RoboMakerを利用しており、GazeboシミュレーションもRoboMakerを使って行っています。当ブログでも、RoboMakerを使ったシミュレーションを以前取り上げています。

tech.aptpod.co.jp

現在は、シミュレーション上のロボットにdepthカメラを取り付け、depth情報を収集できるようにしています。

このdepth情報ですが、32bit浮動小数点数のバイナリ列のため、そのままでは可視化して確認することができません。ROS用のツールを使って可視化することはできますが、弊社のVisual M2Mなら、ROSトピックとして流れる画像をネットワーク越しに確認することができるため、これを利用します。その時必要になるのは、depth情報のROSトピックをjpegに変換して、それを別のROSトピックに流すノードとなります。

ROSのノードを記述するためにはC++かPythonを使うのが一般的ですが、Rustでも記述することができます。そこで今回は、Rustを使ってノードを書いてみます。

続きを読む

リモートワークにおける弊社の取り組み事例紹介

f:id:aptpod-tetsu:20200417145022j:plain

はじめに

はじめまして、人事の神前(こうさき)です。

4月1日に入社をして早々に本ブログ記事の執筆をすることとなり戦慄したのですが宜しくお願いします。

改めてにはなりますが、去る4月7日(火)に緊急事態宣言が出されました。

緊急事態宣言以前からリモートワークへ切り替えていた企業も多いとは思いますが、これを機に一気に加速したように感じます。

私個人の話でいうと、前職では某ゲーム会社に在籍してまして、優先順位的に開発側ではリモートワークの準備や実施がされていたのですが、管理部門でのリモートワーク実施前に退職したこともあり弊社に入社をしてから本格的なリモートワークとなりました(前職のノリで入社初日にフィギュアを持ち込んでデスクに飾ってたら「なんかやべーやつが入社してきたぞ」と若干社内がざわついたことはここだけの秘密)

弊社でも2月中頃からリモートワークへの切り替えを推進してまして、現在ではほぼ100%の社員がリモートワークに移行し、(物理的にどうしても出社しないといけないとしても)出社日も限定して日々業務をすすめています。

さて、そんな状況下ですと日々知見だったり問題だったりがたまっていきます。

そこで今回はネット上にある他社さんのリモートワーク事例やTIPSのご紹介と弊社での取り組み事例をご紹介できればと思います。

本記事がみなさんのリモートワークの一助になれば幸いです。

続きを読む

OpenH264とDockerを用いて動画解析環境を構築する

f:id:aptpod_tech-writer:20200407192117j:plain

先端技術調査グループの南波です。ウイルスは大変な状況ですが、原則自宅勤務となったことで息子2人のお昼寝を眺められる時間が増え、すこしほっこりもしています☺️

さて、今回は最近のお仕事の中で

  • intdashのサーバーに蓄積されているH.264の動画データを解析したい
  • H.264のライセンスはもちろんクリーンに対処したい
  • プロダクト投入時には Amazon ECSなども利用してスケールさせたいので、解析環境はDocker上に用意したい

といった課題に対しOpenH264をDocker上で利用する方法を調査・検証したので、その内容の共有です。

続きを読む

360°動画Player開発の実用TIPS集

f:id:aptpod_tech-writer:20200326151654j:plain Webチームの蔵下です。弊社で開発しているintdashには、Media Servicesという動画や音声などのメディアデータを扱うサービスがあります。さまざまなカメラに対応できることもあり、RICOH THETAのような360°カメラで撮影した動画を扱うこともあります。

f:id:aptpod_tech-writer:20200323143043p:plain

全天球画像 | RICOH THETA」より引用

▲360°動画。360°の映像が1つのパノラマ動画内に収められています。歪みを補正して再生するためには、専用の動画Playerが必要になります。

この360°動画をブラウザで再生する360°動画Playerを、JavaScriptの3Dフレームワークであるthree.jsで開発しました。

本記事では、360°動画Playerを開発するときの実用的なTIPSを紹介します。

  • 360°動画Playerの仕組み
  • 実用TIPS集
    • TIPS1: three.jsのRenderingとVideo描画でLoop処理を分離する
    • TIPS2: Playerの外からPitch, Yaw, Zoomを操作できるようにする
    • TIPS3: 動作テストはStorybookで実装する
  • おわりに
続きを読む