AWS IoT TwinMaker 정식 출시 – 디지털 트윈 서비스

2022-04-26 KENNETH 0

AWS IoT TwinMaker 정식 출시 – 디지털 트윈 서비스 작년 AWS re:Invent 2021에서는 실제 시스템의 디지털 트윈을 더 빠르고 쉽게 생성하고 이를 사용하여 산업 운영을 모니터링하고 최적화할 수 있는 새로운 AWS IoT 서비스인 AWS IoT TwinMaker의 평가판을 소개했습니다. 디지털 트윈은 비즈니스 성과를 창출하기 위해 물리적 시스템의 실제 구조, 상태, 동작을 모방하도록 데이터를 이용해 동적으로 업데이트되는 개별 물리적 시스템의 살아있는 디지털 표현입니다. 디지털 트윈은 건물, 공장, 산업 장비, 생산 라인과 같은 시스템 또는 자산의 전체 수명 주기에 걸쳐 다양한 사용 사례에 적용할 수 있습니다. 많은 고객이 아직 디지털 트윈 여정의 초기 단계에 있습니다. 이들은 서로 다른 소스에서 데이터를 연결하고 대시보드나 몰입형 환경에서 해당 데이터를 상황에 맞게 시각화하여 비즈니스 가치와 성과를 실현할 수 있도록 열심히 노력하고 있습니다. 오늘 AWS Summit 샌프란시스코에서 새로운 기능, 개선 사항, 추가 AWS 리전에서의 가용성과 함께 AWS IoT TwinMaker의 정식 출시를 발표합니다. AWS IoT TwinMaker는 여러 소스의 기존 [ more… ]

[도서] 그림으로 이해하는 네트워크 용어

2022-04-26 KENNETH 0

[도서] 그림으로 이해하는 네트워크 용어 분야별 신상품 – 국내도서 – 컴퓨터와 인터넷 [도서]그림으로 이해하는 네트워크 용어 기타미 류지 저/성창규 역 | 길벗 | 2022년 04월 판매가 16,200원 (10%할인) | YES포인트 900원(5%지급) Source: [도서] 그림으로 이해하는 네트워크 용어

No Image

USN-5387-1: Barbican vulnerabilities

2022-04-26 KENNETH 0

USN-5387-1: Barbican vulnerabilities Douglas Mendizábal discovered that Barbican incorrectly handled access restrictions. An authenticated attacker could possibly use this issue to consume protected resources and possibly cause a denial of service. (CVE-2022-23451, CVE-2022-23452) Source: USN-5387-1: Barbican vulnerabilities

No Image

USN-5376-2: Git vulnerability

2022-04-26 KENNETH 0

USN-5376-2: Git vulnerability USN-5376-1 fixed vulnerabilities in Git. This update provides the corresponding updates for Ubuntu 22.04 LTS. Original advisory details: 俞晨东 discovered that Git incorrectly handled certain repository paths in platforms with multiple users support. An attacker could possibly use this issue to run arbitrary commands. Source: USN-5376-2: Git vulnerability

Amazon SageMaker Serverless Inference – 서버리스 기계 학습 추론 기능

2022-04-25 KENNETH 0

Amazon SageMaker Serverless Inference – 서버리스 기계 학습 추론 기능 2021년 12월, AWS는 기본 인프라를 구성하거나 관리할 필요 없이 추론을 위한 기계 학습(ML) 모델을 배포할 수 있도록 Amazon SageMaker의 새로운 옵션으로 Amazon SageMaker Serverless Inference(평가판)를 도입했습니다. 오늘 Amazon SageMaker Serverless Inference가 정식 출시 되었음을 발표하게 되어 기쁘게 생각합니다. ML 추론 사용 사례에 따라 모델 호스팅 인프라에 대한 요구 사항이 달라집니다. 광고 게재, 사기 탐지 또는 맞춤형 제품 추천 등의 사용 사례를 다루는 경우, 응답 시간이 수 밀리초 이하인 API 기반 온라인 추론을 찾고 있을 것입니다. 컴퓨터 비전(CV) 애플리케이션과 같은 대규모 ML 모델로 작업하는 경우, 몇 분 내에 더 큰 페이로드 크기에서 추론을 실행하도록 최적화된 인프라가 필요할 수 있습니다. 전체 데이터 집합 또는 대규모 데이터 배치에 대한 예측을 실행하려는 경우, 모델 제공 엔드포인트를 호스팅하는 대신 온디맨드 일회성 일괄 추론 작업을 실행할 수 있습니다. 챗봇 서비스와 같이 트래픽 패턴이 간헐적인 애플리케이션이나 문서에서 [ more… ]