자일링스, 프로 AV 및 방송 플랫폼 위한 AI 머신러닝 기능 추가
자일링스, 프로 AV 및 방송 플랫폼 위한 AI 머신러닝 기능 추가
  • 최광민 기자
  • 승인 2020.02.11 10:28
  • 댓글 0
이 기사를 공유합니다

AI 엣지 프로세싱을 위해 고집적 징크 울트라스케일+(Zynq UltraScale+™) MPSoC 플랫폼을 비롯한 자일링스 디바이스 상에서 머신러닝 기능을 활용할 수 있다
Zynq® UltraScale + ™ MPSoC 장치는 그래픽, 비디오, 파형 및 패킷 처리를 위해 실시간 제어를 소프트 및 하드 엔진과 결합하는 동시에 64 비트 프로세서 확장성을 제공한다. 이를 비롯한 자일링스 디바이스에 머신러닝 기능이 추가 됐다.(사진:본지DB)
Zynq® UltraScale + ™ MPSoC 장치는 그래픽, 비디오, 파형 및 패킷 처리를 위해 실시간 제어를 소프트 및 하드 엔진과 결합하는 동시에 64 비트 프로세서 확장성을 제공한다. 이를 비롯한 자일링스 디바이스에 머신러닝 기능이 추가 됐다.(사진:본지DB)

자일링스(Xilinx)가 전문가용 오디오·비디오(Pro AV) 및 방송 시장을 위한 새로운 인공지능 머신러닝 기능을 자일링스 디바이스에 추가했다.

AI 엣지 프로세싱을 위한 프로 AV 및 방송 플랫폼에 새롭게 적용하는 이번 머신러닝 기능은 관심영역 인코딩을 비롯해 지능형 디지털 사이니지, 자동 객체 추적, 윈도우 크로핑(Window Cropping), 음성인식 등이 포함되어 있다.

이제 AI 엣지 프로세싱을 위해 고집적 징크 울트라스케일(Zynq UltraScale+™) MPSoC 플랫폼을 비롯한 자일링스 디바이스 상에서 머신러닝 기능을 활용할 수 있다. 사용자는 실시간 오디오 및 비디오 프로세싱, AV 연결 인터페이스, 코덱, IP 네트워킹, CPU 및 GPU 등을 확장 가능한 적응형 단일 칩 솔루션에 통합하여 공간 및 전력, 비용을 크게 줄일 수 있다.

프로 AV 시장의 고객들은 새로운 머신러닝 기능을 다양한 애플리케이션 및 작업부하에 적용할 수 있다.

주요 사례는 관심영역 인코딩에서 머신러닝 및 H.264/H.265 코덱이 통합된 징크 울트라스케일+ MPSoC를 이용해 얼굴 및 특징을 감지하여 해당 영역의 비디오 품질을 높이고, 배경에 더 높은 압축율을 적용할 수 있다. 이를 통해 전반적인 비트 전송율을 줄이고, 라이브 스트리밍에 따른 비용을 크게 절감할 수 있다.

또한 지능형 디지털 사이니지에서 성별, 연령, 제스처 감지를 위한 머신러닝 모델을 사용하여 디지털 사이니지에 타깃 인터랙티브 광고를 게시할 수 있다. 이를 통해 수익화 할 수 있는 행동방식 측정은 물론, 광고주의 투자 회수율을 높일 수 있다.

아울러 자동 객체 추적 및 윈도우 크로핑에 머신러닝을 사용하여 단일 4K 카메라에서 다중 HD 윈도우를 출력할 수 있다. 이는 제어실에서 전환 가능한 라이브 이벤트 컨텐츠를 제공할 때 특히 유용하며, 음성인식으로 자동으로 음성을 텍스트로 출력할 수 있으며, 컨퍼런스 및 공동작업의 회의 노트를 기록하고, 언어 번역을 자동으로 처리하는데 적합하다.

한편, 자일링스의 프로 AV 및 방송시장 부문 디렉터인 라메쉬 아이어(Ramesh Iyer)는 “머신러닝 기술은 프로 AV 및 방송 시장에서 새로운 활용 모델을 구축하기 위해 빠르게 적용되고 있다”고 말했다.

이어 “자일링스의 적응형 플랫폼에 이러한 머신러닝 기능이 추가됨에 따라 8K 비디오, IP 기반 AV 및 압축 기능을 지원하는 입증된 고도의 통합 AV 프로세서를 제공할 수 있으며, 수익화 분석, 워크플로우 효율성 향상, 유용성 개선 등을 위한 첨단 기능들도 추가할 수 있다. 궁극적으로 이러한 통합 머신러닝 기능은 기업들이 혁신을 강화하고, 제품을 차별화하고, 시장출시 시간을 단축할 수 있도록 해준다”고 밝혔다.

 


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.