BLOG

IoT 분석기능을 일반적으로 사용 가능합니다.
작성일: 2018-05-15

AWS IoT 분석기능 서비스를 일반적으로 사용할 수 있다는 것을 발표하게 되어 기쁩니다. 고객들은 IoT 분석기능을 사용하여 연결된 디바이스 데이터를 정리, 처리, 암호화, 저장 및 분석할 수 있습니다. AWS IoT 분석기능은 현재 미국 동부(북부 버지니아), 미국 서부(오리건), 미국 동부(오하이오), 유럽 연합(아일랜드)에서 사용할 수 있습니다. 작년 11월, 동료인 Tara Walker는 AWS IoT 분석기능 서비스의 몇 가지 기능을 살펴보는 훌륭한 을 썼고 Ben Kehoe (AWS 커뮤니티 히어로와 iRobot에서 서치 과학자)가 iRobot이 AWS IoT 분석기능으로 elasticsearch 클러스터에 데이터를 전달하기 위해 기존의 “rube goldberg machine”을 대체하는 주제로 AWS Re:Invent에서 연설하였습니다.

 

서비스 미리 보기 중에 수신한 고객 피드백에 기반하여 AWS IoT 분석 팀은 BatchPutMessage API를 사용하여 저장된 외부 소스에서 데이터를 수집하는 기능, SampleChannelData API를 사용하여 저장된 데이터에 대한 데이터 보존 정책, 기존 데이터 다시 처리하는 능력, 파이프 라인 결과 미리 보기 및 채널의 메시지 미리 보기 기능을 설정하는 능력과 같은 여러 가지 새로운 기능을 추가했습니다.

 

IoT 분석기능의 핵심 개념을 예제와 함께 살펴보겠습니다.

 

 

AWS IoT 분석기능 개념

 

AWS IoT 분석기능은 몇 가지 간단한 개념으로 나눌 수 있습니다. 데이터 준비를 위해 채널, 파이프 라인 및 데이터 스토어가 필요합니다. 데이터를 분석하기 위해 고객은 데이터세트와 노트북을 보유하고 있어야 합니다.

 

데이터 준비

 

  • 채널은 IoT 분석기능의 시작점이며 바이너리 Ingestion API를 사용하여 채널에 메시지를 보내는 기존 IoT Core MQTT 항목 또는 외부 소스에서 데이터를 얻을 수 있습니다. 채널은 탄력적으로 확장 가능하며 2진수 또는 JSON형식의 메시지를 사용합니다. 또한 사용자의 필요가 변경되는 경우 다른 논리를 사용하여 쉽게 재처리하기 위해 원시 장치 데이터를 채널이 계속 저장합니다.
  • 파이프 라인은 채널의 메시지를 소비하며, 속성 필터링, 필드에서 추가 혹은 제거를 통해 메시지 내용 변환, 복잡한 변환에서 람다 함수를 호출하고 외부 데이터 소스를 추가하거나 IoT Core의 데이터로부터 메시지를 더 풍부하게 하는 등과 같이 활동이라고 불리는 단계별로 메시지를 처리합니다. 파이프 라인은 데이터 스토어에 데이터를 출력합니다.
  • 데이터 스토어는 파이프 라인의 출력을 위해 사용할 수 있도록 최적화된 IoT 최적화 데이터 스토리지 솔루션입니다. 데이터 저장소는 비용을 최적화하기 위해 사용자 정의 보존 기간을 지원합니다. 고객이 데이터 스토어에 쿼리를 진행하면 결과가 Dataset에 저장됩니다.

 

데이터 분석

 

  • 데이터세트는 SQL 데이터베이스의 보기와 유사합니다. 고객은 데이터 스토어에 대한 쿼리를 실행하여 데이터 세트를 생성합니다. 데이터 세트는 수동으로 또는 반복 예약에 따라 생성할 수 있습니다.
  • 노트북Amazon SageMaker에서 호스팅하는 주피터 노트북으로, 고객이 맞춤형 코드를 사용하여 데이터를 분석하고 데이터에 기반하여 머신러닝 모델을 구축하거나 교육할 수 있습니다. IoT 분석기능은 예측 유지 보수, 이상 감지, 대규모 세분화 및 예측과 같은 일반적인 IoT 사용 사례에 대해 미리 등록된 모델과 함께 몇 가지 노트북 템플릿을 제공합니다.

 

또한 IoT 분석 기능을 Amazon QuickSight 데이터 원본으로 사용하여 데이터를 손쉽게 시각화할 수 있습니다. AWS IoT 분석 가격 페이지에서 각 서비스의 가격 정보를 확인할 수 있습니다.

 

 

IoT 분석기능 워크스루

 

이 워크스루에서는 여기에 표시된 콘솔을 모두 사용하지만 CLI를 사용하는 것도 마찬가지로 쉽습니다. 처음에 콘솔로 이동할 때는 채널, 파이프 라인 및 데이터 스토어를 구축하기 위해 사용할 수 있는 유용한 가이드가 있습니다.

 

 

우리의 첫 단계는 채널을 만드는 것입니다. MQTT채널에 IoT core의 데이터가 있으므로 그 채널을 선택하겠습니다. 먼저 채널의 이름을 지정하고 보존 기간을 선택합니다.

 

 

이제 IoT Core 항목을 선택하고 데이터를 살펴보겠습니다. PutMessages API를 사용하여 채널에 메시지를 직접 게시할 수도 있습니다.

 

 

이제 채널이 생겼으니 다음 단계는 파이프 라인을 만드는 것입니다. 이를 위해” Actions” 드롭 다운 목록에서 “이 채널에서 파이프 라인 생성”을 선택하겠습니다.

 

 

이제 파이프 라인 마법사의 이름과 소스를 보여드리겠습니다.

 

 

파이프 라인이 예상하는 메시지 특성을 선택하겠습니다. 샘플링 API가 있는 채널에서 얻을 수 있으며 어떤 특성이 필요한지 추측하거나 JSON형식의 규격을 업로드할 수 있습니다.

 

 

다음으로 파이프 라인 활동을 정의하겠습니다. 2진수 데이터를 처리하려면 람다 기능을 사용하여 먼저 메시지를 JSON으로 구분하여 다른 필터 기능을 사용할 수 있습니다. 필터를 생성하고, 다른 특성에 기반하여 특성을 계산하고, IoT core 레지스트리의 메타데이터로 메시지를 풍부하게 할 수도 있습니다.

 

 

지금은 몇 가지 메시지를 걸러 내어 람다 기능을 이용해 작은 변화를 만들어 내려고 합니다.

 

 

마지막으로, 파이프 라인의 결과를 출력할 데이터 스토어를 선택하거나 생성합니다.

 

 

데이터 저장소가 있으므로 데이터 세트를 생성하여 해당 데이터 보기를 생성할 수 있습니다.

 

 

이 데이터 세트의 데이터 스토어에서 모든 데이터를 선택하지만 필요에 따라 개별 특성을 선택할 수도 있습니다.

 

 

데이터 세트가 있습니다! 스케쥴에 있는 cron 표현식을 조정하여 원하는만큼 자주 또는 가끔 재실행할 수 있습니다.

 

 

데이터를 사용하여 모델을 생성하려면 SageMaker 기반 Jupiter 노트북을 만들 수 있습니다. 이상 징후 감지 또는 출력 예측과 같은 좋은 출발점이 있는 몇 가지 템플릿이 있습니다.

 

 

이상 징후 감지 노트북의 예를 볼 수 있습니다.

 

 

마지막으로 데이터에 대한 간단한 시각화를 생성하려면 QuickSight를 사용하여 IoT 분석기능 데이터 세트를 가져올 수 있습니다.

 

 

저희에게 알려 주십시오.
AWS IoT 분석기능을 통해 고객이 구축하는 기술이 무엇인지 알아보고 싶습니다.

 

원문 URL: https://aws.amazon.com/ko/blogs/aws/iot-analytics-now-generally-available/

** 메가존 TechBlog는 AWS BLOG 영문 게재글중에서 한국 사용자들에게 유용한 정보 및 콘텐츠를 우선적으로 번역하여 내부 엔지니어 검수를 받아서, 정기적으로 게재하고 있습니다. 추가로 번역및 게재를 희망하는 글에 대해서 관리자에게 메일 또는 SNS페이지에 댓글을 남겨주시면, 우선적으로 번역해서 전달해드리도록 하겠습니다.