테슬라 설립자 겸 CEO 일론 머스크(Elon Musk)가 최고의 인공지능 인재를 테슬라에 합류시키는 것을 목표로 하는 '테슬라 인공지능 데이 2022(Tesla AI Day 2022)'가 지난달 30일(현지시간) 저녁 캘리포니아 주 팔로알토(Palo Alto)에서 열렸다.특히, 이번 행사는 지난해 8월 19일 개최된 Tesla AI Day를 통해 발표된 '테슬라 봇(Tesla Bot)' 또는 '옵티머스(Optimus)' 라고 불리는 테슬라의 AI 휴머노이드(Humanoid)에 대한 관심과 기대로 전 세계 관련 커뮤니티들의 이목을
산업혁명 때는 단순히 인간보다 근력이 뛰어난 기계가 탄생했지만, 인공지능은 힘과 지능을 모두 지녀 그 파급력이 훨씬 크다.최근 수년간 인공지능의 비약적인 발전 속도를 고려한다면 과연 미래 경제 전반에서 생산성을 높여 새로운 일자리를 늘려줄지 아니면 인공지능에 의해서 일자리가 사라져 사람들이 고통을 받게 될지, 우려와 기대의 상반되는 목소리도 있지만 분명한 것은 앞으로 AI 기술은 더 많은 영역과 분야에서 파급될 것이다.특히, 컨택센터(콜센터)에서는 인공지능과 상담이 일상으로 진화되고 있다. 지난 8월 신한카드가 발표한 자료에 따르면
4족 보행 로봇에 대한 핵심적인 요소로 인간이 접근하기 어렵거나 접근할 수 없는 복잡한 실외 환경에서 작동할 수 있는 잠재력으로 높이 평가된다. 국방에서는 물론이고 험지에서 천연 자원을 찾는 것, 심하게 손상된 재난 현장에서 생명 신호를 찾는 등 견고하고 다재다능한 4족 보행 로봇은 다양한 환경과 조건에서 매우 유용할 수 있다.이를 위해 로봇은 환경을 인식하고 이동 문제를 이해하고 그에 따라 이동해 나간다. 최근 지각, 시각 등의 발전으로 4족 보행 로봇의 기능이 크게 향상되었지만 대부분의 작업은 실내 또는 도시 환경에 중점을 두므
지금까지 대화형 언어 인공지능(AI)에 대한 기존의 공개 연구는 통제된 환경에서 주석자와의 인간 모델 대화에 초점을 맞췄다. 그러나 연구자가 연구 환경에서만 모든 대화 시나리오를 예측하거나 시뮬레이션 할 수는 없다.AI 언어 인공지능 모델은 인간처럼 우리를 이해하고, 참여하며, 대화할 수 있는 진정한 지능형 AI 시스템과는 아직 거리가 멀다. 실제 환경에 더 적응할 수 있는 모델을 구축하기 위해서는 AI는 사람들과 함께 다양하고 광범위한 시각에서 학습해야 한다. 이것들은 아직 미해결 문제이며, 공동체에 의해 수행되어야 하는 새로운
지난해 7월 15일, 딥마인드는 '알파폴드를 사용한 매우 정확한 단백질 구조 예측(Highly accurate protein structure prediction with AlphaFold-다운)'이란 제목으로 네이처에 발표하고 단백질 구조 예측 인공지능(AI) 플랫폼 '알파폴드(AlphaFold-다운)'를 누구나 사용할 수 있게 오픈 소스로 공개했다.이어 7월 22일, 데미스 허사비스(Demis Hassabis) 구글 딥마인드 CEO가 공식 블로그를 통해 오늘날 과학자들이 연구에 의존하는 생물(효모, 대장균, 초파리, 쥐 등) 2
인공지능 시대로의 진입이 현실로 다가오고 있다. 그 가운데 AI 언어 모델은 국내외 AI 커뮤니티를 넘어 단연, 최고의 이슈이다.선다 피차이(Sundar Pichai) 구글 CEO는 지난해 5월 구글의 연례 개발자 컨퍼런스 '구글 I/O'에서 사람처럼 대화가 가능한 대화형 AI '람다(LaMDA, Language Model for Dialogue Applications)'를 시연하면서 또 다른 언어 인공지능(AI)에 관심이 집중됐었다.당시, 그는 "우리는 수년 동안 언어 모델을 연구하고 개발해 왔습니다. LaMDA가 공정성, 정확성
이제, 전 세계 어떤 언어로도 서로 소통할 수 있는 인공지능(AI)의 능력을 통해 소수 언어의 어려움을 허물고 소통의 한계를 넘고 있다.기계번역(MT) 시스템은 빠르게 개선되고 있지만 여전히 많은 양의 텍스트 데이터에서 학습하는 데 크게 의존하기 때문에 일반적으로 학습 데이터가 부족한 언어 및 표준화된 쓰기 시스템이 없는 언어에는 잘 작동하지 않는다.지난 2월 메타AI는 사람들이 더 잘 연결되고 소통하고 미래의 메타버스의 일부가 되도록 돕기 위해 전 세계 대부분의 언어에 대한 고품질 기계 번역 기능을 제공하기 위한 노력으로 'NLL
메타버스의 파티에서 어울리거나 증강현실(AR) 안경을 착용하고 거실에서 홈 무비를 볼 때 음향은 이러한 순간을 경험하는 데 중요한 역할을 한다. 우리는 이와 같은 혼합 현실 및 가상 현실 경험을 위해 노력하고 있으며 인공지능(AI)이 사람들이 몰입하는 설정과 사실적으로 일치하는 음질을 제공하는 핵심이 될 것이라고 믿는다.이에, 메타 인공지능(Meta AI) 연구팀이 메타 리얼리티 랩(Meta Reality Labs)의 오디오 전문가와 이 연구를 주도한 텍사스 대학교 오스틴(University of Texas at Austin)의 컴
휴대전화, 스마트워치 및 웨어러블 기기 등이 새로운 모델을 위해 사용이 중단되거나 폐기될 필요가 없는 보다 지속 가능한 장치들이 탄생할 것으로 예상된다. 레고(LEGO) 브릭(Brick)과 같이 장치의 내부 칩에 최신 센서 및 프로세서로 업그레이드할 수 있게 된 것이다. 이러한 재구성 가능한 칩웨어는 전자 폐기물을 줄이면서 장치를 최신 상태로 유지할 수 있다.美 매사추세츠 공과대학교(MIT) 전자연구소(Research Laboratory of Electronics)의 김지환 MIT 기계공학부 교수를 비롯한 강지훈, 김현석, 송민규,
우리는 일상적인 상황에서 촉각을 너무나 당연하게 여기는 경향이 있지만 인간의 촉각과 감각기능은 주변 환경과 상호 작용하는 능력에 매우 중요하다.예를 들어, 아침 식사로 계란을 요리하기 위해 냉장고에 손을 넣어 계란을 집는다면 계란이 차갑고 껍질이 매끄러운 것을 느낄 수 있으며, 부서지지 않도록 얼마만큼의 세기로 잡아야 하는지 알 수 있다. 이는 인간이 직접 제어하는 로봇에서는 매우 어려움을 겪을 수 있는 촉각 능력이다.여기에, 캘리포니아 공과대학교(Califonia Institute of Technology. 이하, 칼텍·Cal
가상현실보다 한 단계 더 나아가 사회·경제적 활동까지 이뤄지는 온라인 공간, 메타버스(Metaverse)의 중요한 부분이 될 것으로 예상되는 새로운 증강현실(AR) 경험을 창출하려면 컴퓨터 비전 이상의 기술적 돌파구는 필수적이다.자연스럽고 인간의 미묘한 대화 언어를 이해할 수 있는 인공지능(AI) 어시스턴트는 단순히 핸즈프리 전화를 걸거나 휴대폰에서 앱을 열 수 있도록 도와주는 것 이상의 것을 할 수 있는 차세대 음성 시스템이 필요한 시점이다.즉, 음성 인식 시스템은 초경량, 소형 및 세련된 안경에서 장치를 작동할 수 있도록 훨씬
테슬라 설립자 겸 CEO 일론 머스크(Elon Musk)는 18일(현지시간) 트윗을 통해 테슬라가 8월 19일 테슬라 인공지능 데이 #2(Tesla AI Day #2)를 개최할 것이라고 밝혔다.특히, 머스크는 "많은 흥미로운 업데이트(So many cool updates!)'가 많이 있을 것이며, 회사는 최고의 인재를 끌어 모으는 것을 목표로 할 것입니다"라며, "최고의 AI 인재를 테슬라에 합류시키는 것이 유일한 목표입니다"라고 말했다.테슬라는 인공지능(AI)을 비롯한 첨단 기술을 활용한 하드웨어, 소프트웨어를 생산하기 때문에 자
1,000억개 이상의 매개변수가 있는 자연어처리(NLP) 시스템인 대형 언어 모델은 지난 몇 년부터 현재까지 자연어처리 및 인공지능(AI) 연구와 애플리케이션을 혁신시키고 있다.방대한 양의 다양한 텍스트에 대해 학습을 시킨 그들은 창의적인 텍스트를 생성하고, 기본적인 수학 문제를 해결하고, 독해력 문제에 답하는 등 놀라운 능력을 보여주고 있다. 그러나, 오픈AI의 GPT-3 등과 같이 유료 API를 통해 이러한 모델과 상호 작용할 수 있지만 대부분의 모델 이용은 리소스가 풍부한 소수의 개발자 또는 기업, 기관으로 제한되어있다.여기에
그래프Graph)는 자료의 정량적 성향에 대한 일반적인 경향을 보여주는 예측이나 소셜 네트워크, 교통 인프라, 분자 및 인터넷과 같은 관계 구성 요소를 연결하는 자연 시스템의 매우 일반적인 표현이다.그래프 신경망(Graph Neural Networks. 이하, GNN)은 그래프 또는 전체 그래프 내의 항목에 대한 예측에 컨텍스트를 통합하기 위해 고유한 연결을 활용하는 강력한 머신러닝(ML) 기법이다. GNN은 신약을 발견하고, 수학자들이 계산 및 수식을 증명하도록 돕고, 잘못된 정보를 감지하고, 지도에서 특정지역의 도착 시간 예측
신경망(NN, Neural Network)과 같은 현대의 머신러닝 모델은 이미지, 음성뿐만 아니라 문장 등 새로운 콘텐츠를 생성하는 데 널리 활용되고 있다. 이런 생성모델의 발전에도 불구하고 최근 개발된 모델도 여전히 '블랙박스'의 존재로 국방, 의료, 제조, 금융 등의 매우 중요한 작업에 모델을 적용하는 것에는 어려운 점이 따른다.일부 통찰력을 제공하기 위해 개별 모델 결정을 설명하는 설명 방법을 사용한다. 예를 들어, 영화 리뷰에서 리뷰가 긍정적이라는 모델의 결정에 영향을 미치는 단어를 강조 표시할 수 있다. 그러나, 이러한 설
지난 25일부터 29일까지 가상으로 개최된 인공지능(AI) 분야 세계 최고 권위 학회인 '표현학습국제학회(International Conference on Learning Representations. 이하, ICLR 2022)'는 컴퓨터 비전, 음성 인식 및 텍스트 이해에서 로봇 공학, 컴퓨터, 데이터 등에 이르기까지 인공지능, 머신러닝, 학습 등의 최신 기술과 응용 분야의 최신 연구 성과를 공유했다.ICLR 2022은 올해로 10회째를 맞는 인공지능(AI) 및 데이터 사이언스 분야에서 활용되는 핵심 기술과 관련된 전세계 첨단 연
한 언어에서 다른 언어로 음성에서 음성으로 번역(Speech-To-Speech Translation. 이하, S2ST)을 자동으로 번역하는 것은 서로 다른 언어를 사용하는 사람들 사이의 의사소통과 문화 및 정보 교류에 혁신적으로 기여한다.일반적으로 기존 자동 S2ST 시스템은 자동음성인식(ASR), 텍스트 간 기계 번역(MT) 및 텍스트 음성 변환(TTS) 합성 하위 시스템의 캐스케이드(Cascade)로 구축되므로 시스템 전체가 텍스트 중심이다.최근, 학습된 개별 음성 표현에 기초한 엔드 투 엔드 다이렉트 S2ST(예:Transla
지난 3월 29일(현지시간) 출범한 'MIT 인공지능 하드웨어 프로그램(MIT AI Hardware Program)'은 AI와 양자시대를 위한 하드웨어 및 소프트웨어 기술을 정의하고 개발하는 것을 목표로 하는 새로운 학계-산업 이니셔티브이다.이 프로그램은 매사추세츠공과대학(Massachusetts Institute Of Technology. 이하, MIT)과 MIT 마이크로시스템 기술 연구소(Microsystems Technologies Laboratories, MTL)와 MIT 슈워츠만 컴퓨팅 대학(Schwarzman Colleg
연구 중심의 종합대학교 영국 유니버시티 칼리지 런던(University College London, 이하, UCL), 세인트 바르쏠로뮤 병원 바르츠 심장센터(Barts Heart Center at St Bartholomew's Hospital), 미국국립보건원(National Institutes of Health) 등 공동 연구팀이 개발한 인공지능 알고리즘은 기록적인 속도로 심장질환을 식별하고 환자에 대한 치료에 혁신적으로 기여하고 있다.세계 최초의 이 인공지능(AI) 알고리즘은 환자가 심장 MRI 스캐너에 있는 동안 단 20초 만
우리말, 영어, 중국어 또는 스페인어 등과 같은 언어들은 오늘날의 앱 및 웹 도구가 이미 필요한 번역 기술을 제공하는 것처럼 보일 수 있다. 그러나 수십억 명의 사람들이 인터넷상의 대부분의 정보에 쉽게 접근하거나 모국어로 세계와 연결하고 소통 할 수 없는 것이 현실이다.기계 번역(Machine Translation. 이하, MT) 시스템은 빠르게 개선되고 있지만, 여전히 많은 양의 텍스트 데이터로부터 학습하는 것에 크게 의존하고 있기 때문에, 일반적으로 저자원 언어, 즉 학습 데이터가 부족한 언어와 표준화된 쓰기 시스템(writin