AMD는 자사의 광범위한 비용 최적화 FPGA 및 적응형 SoC 포트폴리오에 최신 AMD '스파르탄 울트라스케일+(Spartan™ UltraScale+™)' 제품군을 추가했다고 5일(현지시간) 밝혔다.스파르탄 울트라스케일+ 디바이스는 다양한 I/O 집약적 엣지 애플리케이션을 위해 높은 비용 및 전력 효율성을 제공한다. 28nm 미만 공정 기술로 구현된 FPGA 중 로직 셀 대비 업계에서 가장 많은 I/O를 갖추고 있으며, 이전 세대에 비해 전력소모를 최대 30%까지 절감하는 것은 물론, AMD 비용 최적화 포트폴리오 중 가장 강력한
인공지능(AI)은 전 세계적으로 데이터 생성을 기하급수적으로 증가시키고 있으며, 이런 데이터 증가를 지원하는 칩의 에너지 수요도 증가하고 있다.독일 반도체기업 인피니언 테크놀로지스(Infineon Technologies. 이하, 인피니언)는 지난 23일(현지시간) 개최된 연례 총회에서 요헨 하네벡(Jochen Hanebeck) 최고경영자(CEO)는 "전 세계적으로 AI 호황을 바탕으로 수십억 달러의 수익을 창출하고 더 높은 가격의 칩을 판매하여 미래 성장을 주도한다"며, "기존 서버에는 65-80달러의 전력 반도체가 포함되어 있지만
베리실리콘(VeriSilicon)이 사물인터넷(IoT), 웨어러블, 스마트 TV, 스마트 홈, 보안 모니터링, 서버, 자동차 전자 제품, 스마트폰, 태블릿 및 스마트 헬스케어를 포함해 전 세계 10개 주요 애플리케이션 부문에 걸쳐 1억개 이상의 AI 지원 칩에 신경처리장치(Neural Processing Unit, NPU)가 통합된 IP를 제공했다고 3일 밝혔다.지난 7년 동안 임베디드 AI/NPU 분야의 선도기업으로 베리실리콘의 NPU IP는 다양한 시장 부문에서 72개 라이선스 업체가 공급하는 128개의 AI SoC에 성공적으로
인공지능(AI) 기술의 발전에 따라 에너지 효율적이면서도 빠른 동작 속도를 가진 반도체 기술의 수요가 급증하고 있다. 하지만 기존의 컴퓨팅 장치는 연산장치와 메모리가 별도로 구성된 ‘폰 노이만 구조’를 가지고 있어, 데이터 처리 과정에서 병목현상으로 속도와 에너지 효율이 떨어지는 문제가 있다.반면, 생물학적 뉴런은 연산과 메모리 기능을 동시에 수행하는 특성을 가지고 있어, 이를 모방한 신경모방 소자 연구가 주목받고 있다.이 가운데 DGIST(총장 이건우) 전기전자컴퓨터공학과 권혁준 교수팀(제1저자 송총명 석박통합과정생)은 인공지능
삼성전자가 업계 최초로 36GB HBM3E(5세대 HBM) 12H(High, 12단 적층) D램 개발에 성공하고 고용량 HBM 시장 선점에 나선다.'HBM3E 12H'는 인공지능(AI) 플랫폼 및 애플리케이션 서비스의 고도화로 데이터 처리량이 급증하는 환경에서 AI 플랫폼을 활용하는 다양한 기업들에게 최고의 솔루션이 될 것으로 기대된다.특히, 성능과 용량이 증가한 이번 제품을 사용할 경우 GPU 사용량이 줄어 기업들이 총 소유 비용(TCO, Total Cost of Ownership)을 절감할 수 있는 등 리소스 관리를 유연하게 할
최근 인공지능(AI) 기술의 발전과 함께, 비전 시스템은 이미지 인식, 객체 탐지 및 동작 분석과 같은 다양한 작업에서 AI를 활용해 핵심적인 역할을 수행하고 있다. 하지만 기존 비전 시스템은 이미지 센서에서 수신된 신호를 복잡한 알고리즘을 이용해 물체와 그 동작을 인식하는 것이 일반적이다.이러한 방식은 상당한 양의 데이터 트래픽과 높은 전력 소모가 필요하여 모바일 또는 사물인터넷 장치에 적용되기 어렵다.그러나 곤충은 기본 동작 감지기(Elementary Motion Detector) 라는 시신경 회로를 통해 시각 정보를 효과적으로
AMD는 6일(현지시간) AMD 라이젠(Ryzen™) 임베디드 프로세서와 버설(Versal™) 적응형 SoC를 단일 통합 보드에 결합하여 확장 가능한 전력 효율적인 솔루션을 제공하는 AMD 임베디드+(AMD Embedded+)를 출시했다.AMD가 인증하는 임베디드+ 통합 컴퓨팅 플랫폼은 ODM 고객들이 추가 하드웨어 및 R&D 리소스에 대한 부담 없이 품질 인증 및 구현 시간을 단축하여 보다 신속하게 제품을 시장에 출시할 수 있도록 지원한다. 임베디드+아키텍처를 활용하는 ODM 업체들은 공통의 소프트웨어 플랫폼을 통해 의료, 산업
AMD가 세계 최초로 전용 인공지능(AI) 엔진을 탑재한 데스크탑 프로세서 라이젠 8000G (Ryzen 8000G) 시리즈를 공식 출시했다고 1일 밝혔다.라이젠 8000G 시리즈는 동급 최강의 내장 그래픽을 갖추고 있어 탁월한 전력 소비와 성능, 효율성을 제공한다. 특히, 제품 라인업 중 최상위 프로세서는 라이젠 AI (Ryzen AI)를 활용해 AI 워크로드를 최적화하고 새로운 차원의 AI 경험을 제공한다.이번 신제품의 주요 기능은 AMD 라데온 700M(AMD Radeon 700M) 시리즈 그래픽 탑재. 1080p 해상도의 플
인텔이 9일(현지시각) 지능형 EV 전력 관리를 위한 SoC 분야에 특화된 팹리스 실리콘 및 소프트웨어 기업 ‘실리콘 모빌리티(Silicon Mobility)’ 인수를 비롯한 자동차 시장을 위한 '인공지능 에브리웨어(AI Everywhere)' 전략을 주도할 것이라고 9일(현지시간) CES 2024 현장에서 발표했다.이와 함께 인텔은 AI 기반 소프트웨어 정의 차량(Software Defined Vehicle. 이하, SDV) 시스템 온 칩(SoC) 신제품군을 발표하고, 프리미엄 전기 자동차 지커(Zeekr)가 OEM 최초로 차세대
SK하이닉스가 오는 9일부터 12일까지 미국 라스베이거스에서 열리는 세계 최대 전자·IT 전시회 ‘CES 2024’에 참가해 인공지능(AI) 인프라의 핵심인 초고성능 메모리 기술력을 선보인다.SK하이닉스는 “이번 CES에서 메모리 반도체가 ICT 기기에서 중심적인 역할을 하는 환경 ‘메모리 센트릭(Memory Centric)’으로 대변되는 회사의 미래 비전을 부각할 것”이라며, “이를 통해 AI 시대 기술 진보에 따라 강조되고 있는 메모리 반도체의 중요성과, 이 분야 글로벌 시장을 선도하는 당사의 경쟁력을 세계에 알리고자 한다”고
최근 인공지능(AI), 사물인터넷, 머신러닝 등의 기술이 성능을 가속하면서 방대한 양의 데이터를 처리하면서도 에너지를 효율적으로 소비하는 차세대 인공지능 반도체 개발에 글로벌 기업들이 역량을 집중하고 있다. 인간의 뇌에서 영감을 받은 뉴로모픽 컴퓨팅(Neuromorphic Computing)도 그중 하나다. 이에 따라 생물학적 뉴런과 시냅스를 모방한 소자들이 새로운 소재 및 구조를 기반으로 속속 개발되고 있으나, 개별 소자들을 통합해 시스템에서 검증하고 최적화하는 연구는 미비한 상황이다. 향후 대규모 스파이킹 신경망(Spiking
인피니언 테크놀로지스(Infineon Technologies AG. 이하, 인피니언) 프로그래머블 USB 주변장치 컨트롤러인 EZ-USB™ 제품군은 기능과 성능을 꾸준히 향상해 인공지능(AI)과 이미징 및 새로운 최신 애플리케이션에서 최고 성능 요구를 충족하는 USB 디바이스를 설계할 수 있도록 한다.인피니언(코리아 대표 이승수)이 새롭게 선보이는 EZ-USB FX10은 USB 10Gbps와 LVDS 인터페이스를 통한 빠른 커넥티비티를 제공해 이전 제품 대비 대역폭을 3배까지 높인다.EZ-USB FX10은 듀얼 ARM® Cortex
최근, 생성 AI의 전 세계적 이슈 속에 인공지능을 학습하기 위해 더 많은 데이터가 필요해지면서 그 중요성은 더욱 증가하고 있다. 이에 데이터 센터 및 클라우드 서비스를 위한 주요 저장장치인 고성능 SSD(Solid State Drive, 반도체 기억소자를 사용하는 저장장치)의 필요성이 날로 높아지고 있다.여기에, 국내 연구진이 정보를 저장하는 SSD가 컴퓨터 없이도 데이터 처리가 가능한 독립 서버로 운영이 가능해지며, 편리성이 극대화되고 데이터의 탄소 배출량도 획기적으로 감소시킬 수 있는 새로운 형태의 스마트 SSD로 개발되었다.
생성 인공지능(Gen AI)과 거대 언어 모델(LLM)이 주목을 받고 있지만, 얼마나 많은 AI가 이미 임베디드 디바이스에 배포되어 있는지, 그리고 가정, 도시 및 산업 전반의 애플리케이션에 어떤 영향을 미치고 있는지 모르는 경우가 많다. AI는 데이터를 이해하고 물리적 세계와 디지털 세계 간의 보다 원활한 상호작용을 가능하게 하는 데 매우 중요하다.Arm이 전용 DSP(디지털 신호 처리) 및 머신러닝(ML) 가속기의 비용 부담 없이 성능 향상을 요구하는 AIoT 애플리케이션을 위해 설계된 Arm Cortex-M52를 22일(현지시
글로벌 인공지능 반도체 기업인 사피온(SAPEON, 대표 류수정)이 전작대비 속도가 4배 향상된 데이터센터 용 AI반도체 ‘X330’을 출시한다고 16일 밝혔다.X330은 TSMC의 7나노공정을 통해 생산된 제품이다. 사피온은 주요 고객사들을 대상으로 X330 시제품 테스트와 고객사들과 신뢰성 검증 작업을 진행하고 내년 상반기부터 양산을 시작할 예정이다.사피온은 향상된 성능 및 전력효율을 제공하는 X330을 통해 생성 인공지능(Generative AI), 대형언어모델(LLM, Large Language Model) 지원을 추가하여,
1965년 인텔의 창립자 중 한 명인 고든 무어(Gordon Moore)는 반세기 이상 칩 산업에 영향을 미친 '무어의 법칙'을 제시했는데, 이는 집적 회로가 수용할 수 있는 트랜지스터의 수가 1~2년마다 두 배로 증가할 것으로 예측하는 것이다.반도체 분야는 무어의 법칙에 따라 수십 년 동안 번영해 왔으며, '칩'은 인류가 지능의 시대로 진입하는 데 중요한 엔진이 되었다. 그러나 트랜지스터 크기가 물리적 한계에 가까워지면서 무어의 법칙은 지난 10년 동안 속도가 느려지고 또 다른 한계에 직면했다. 특히, 인공지능 시대에 새로운 세대
임베디드 및 엣지 컴퓨팅 기술 분야 선도 기업 콩가텍(Congatec)이 텍사스인스트루먼트(TI)의 Jacinto™ 7 TDA4x 및 DRA8x 프로세서를 기반으로 하는 최신형 SMARC 모듈 2.1 컴퓨터 온 모듈을 출시했다고 4일 밝혔다.산업용 등급의 이 컴퓨터 온 모듈은 듀얼 ARM Cortex-A72 프로세서와 강력한 인공지능(AI) 가속기 및 3D 그래픽을 지원하고 초저전력(ULP, Ultra Low Power) 엔벨로프(envelope)를 갖춘 고성능 AI 엣지 애플리케이션에 이상적이다. 소비전력 5~10W의 conga-
삼성전자가 PC·노트북 D램 시장의 판도를 바꿀 LPDDR(Low Power Double Data Rate) D램 기반 7.5Gbps LPCAMM(Low Power Compression Attached Memory Module)을 업계 최초로 개발했다.LPCAMM은 LPDDR 패키지 기반 모듈 제품으로, 기존 DDR 기반 So-DIMM(Small Outline Dual In-line Memory Module) 대비 성능·저전력·디자인 효율성 측면에서 기술 혁신을 이뤄내며 차세대 PC·노트북 시장에 새로운 폼팩터 패러다임을 제시할 것
AMD는 우주 비행 품질 인증을 획득한 버설(Veral™) 적응형 SoC 포트폴리오의 두 번째 디바이스인 버설 인공지능 엣지(AI Edge) XQRVE2302를 21일(현지시간) 출시하고, 내방사선 우주 등급 적응형 컴퓨팅 솔루션 분야의 리더십을 강화한다.XQRVE2302는 매우 작은 폼팩터(23mm x 23mm)의 패키지로 우주 애플리케이션을 위한 적응형 SoC를 제공하는 최초의 사례이다. 이 디바이스는 기존의 버설 AI 코어(AI Core) XQRVC1902에 비해 약 75% 더 작은 보드 면적을 가지고 있으며, 전력소모 또한
오픈AI의 챗GPT, 구글 바드(Bard), 메타 라마(LLaMa) 등 대형언어모델(이하, LLM)을 기반으로 하고 있는 대화형 생성 AI는 전 세계적으로 하루가 멀게 이슈를 뿌리며, 이 기술이 가져올 변화에 모두 주목하고 있다.그러나 이를 운영하기 위해서는 수많은 고성능 GPU가 필요해, 천문학적인 컴퓨팅 비용이 든다는 문제점이 있다.KAIST(총장 이광형)는 전기및전자공학부 김주영 교수 연구팀이 챗GPT에 핵심으로 사용되는 LLM의 추론 연산을 효율적으로 가속하는 AI 반도체를 개발했다.연구팀이 개발한 AI 반도체 ‘LPU(La