https://youtu.be/s7o_YvgFgGk?si=-BpbDtxl7xIAq_hw
00:21 컴퓨터를 제어하는 Claude AI 03:25 Runway Act-One 04:56 I-Xray 07:06 떡 파는 AI 점원
08:55 구글 Ask Photos 10:19 2024 어도비 Sneak 14:09 인간 증명 서비스 World
19:57 일론머스크가 10월에 공개한 것들 20:05 테슬라 We, Robot 행사 24:59 스페이스X 메카질라
27:11 24.10 로봇 뉴스 27:17 치유형 로봇 Moflin
28:45 사다리 오르는 4족 보행 로봇 30:19 사람 표정으로 대화하는 로봇들
미래 뉴스 10월달 소식들이 굉장히 화려하거나 아주 가득가득하게 펼쳐지고 있습니다. 먼저, 컴퓨터를 사용하기 시작한 클로드 AI 소식부터 전달드리도록 할게요.
클로러해 가지고 엔트리큐먼트 코퍼레이션의 공급업체 요청 양식을 작성해 줘.
양식을 작성하면서 각 항목을 나열하고 확인해라고 명령을 하고, 제출을 보내는 겁니다. 자, 그러면 AI가 당신이 명령한 거 알아들었다고 확인을 해 주면서 먼저 현재 화면을 캡처해서 이미지 분석을 한 거예요. 그랬더니 원하는 회사가 스프레드시트에 없더라, 다른 윈도우 탭을 클릭해서 여기에서 검색해 보겠다, 고객 정보 검색 화면 탭에서 원하는 회사 이름을 AI가 직접 지금 타이핑을 해가지고 검색을 하고 있는 겁니다. 자, 그래서 원하는 회사가 나온 걸 보고서 다시 화면을 캡처하고, 또 스크롤을 해가지고 나머지 아랫부분들도 캡처를 하고 있는 거예요. 자, 그런 다음에 해당되는 내용들을 우측 양식에 해당되는 정보들을 지금 입력을 AI가 해 주고 있는 겁니다. 저도 이런 기능이 있었으면 좋겠다라고 생각했는데, 드디어 실현이 되고 있는 것을 우리가 보고 있네요. 자, 엔트로픽에서 공개한 내용들을 정리해 드리자면, 현재 API, 어플리케이션 인터페이스를 활용할 수 있는 개발자들이 베타 버전을 사용할 수가 있습니다. 코딩을 못하고 그러신 분들은 좀 어려울 수 있어요. 자, 그리고 AI가 스크린샷을 찍어서 이미지를 분석한 다음에 작업할 방식을 추론하는 그런 기능이라고 해요. 추론 기능까지 들어갔으니까 이게 가능한 것이고, 스크린샷을 살펴본 후에 픽셀을 세어 가지고 정확한 위치로 커서를 이동시키는 데 상당히 많은 학습이 필요했다고 합니다. 자, 컴퓨터 사용 테스트인 월드에서 정확도가 14.9% 점수가 나왔다고 해요. 인간이 70에서 75% 그보다는 한참 떨어지지만, 그래도 다른 AI 모델의 성적이 지금 7.7% 하니까, 그거보다는 두 배 높은 성과라고 합니다. 이제 시작인 거예요. 자, 그래서 엔트로픽 사에서도 이야기를 합니다. 느리고 오류가 많고 드래그나 줌 등은 아직 불가능하고, 그리고 위험성도 있겠죠. 선거 관련 활동을 시킨다든지, 서류 등록 등은 현재 못 하도록 제한을 걸어두고 있다고 하고요. 스크린샷을 해 가지고 얘가 분석해 주는 것이기 때문에 이 데이터가 생성 AI 모델 훈련에 사용하지 않을 것이라고 이야기를 하고 있습니다. 악용하려는 그런 시도들도 있을 것이기 때문에 상당히 주의가 필요하다는 것을 이 회사에서도 강조를 하고 있어요. 자, 그래도 앞으로 이 발전 상황들을 지켜보시면 좋을 것 같고요.
다음은 동영상 생성 AI 서비스 런웨이에서 내 얼굴 표정이 캐릭터에 바로바로 반영이 되는 액트 1이라는 신 서비스를 공개했습니다. 자, 저렇게 내가 말을 하면서 표정을 지으면, 가상의 이미지, 어떤 캐릭터 이미지에 바로바로 반영이 된다는 거예요. 이 서비스가 런웨이에서도 제공될 것이라고 발표가 됐습니다. 저는 저 영상이 흥미로워요. 저런 표정까지 우리가 만들어낼 수가 있다. 자, 그렇게 되면 내가 얼굴 표정을 지었을 때 다양한 이미지로 반영이 되고 있다는 것을 여기서도 확인할 수가 있어요. 라이브 액션이라고. 자, 그럼 런웨이에서 설명한 것들을 좀 자세하게 요약해 드리자면, 배우의 이제 연기로만 이게 구동이 되면서 추가 장비가 필요하지 않다는 거예요. 그냥 카메라 하나만 있으면 되는 거고, 스마트폰으로 찍은 영상만 있으면 되는 거고, 그러니까 별도의 모션 슈트 그런 거라든지 트래킹 카메라 그런 것들이 필요 없다라는 것이고, 자, 영적이고 사실적으로 결과물을 생성하는 데 탁월하다. 그리고 다양한 카메라 앵글에서도 충실도의 얼굴 애니메이션을 유지한다라고 홍보를 하고 있습니다. 써봐야 알아요, 물론. 자, 런웨이 사용자들에게 앞으로 점진적으로 배포할 예정이라서 지금 당장은 사용하기 어려울 수 있습니다. 앞으로 이런 것들이 점점 좋아질 것이기 때문에 영화 제작이나 드라마 제작뿐만이 아니라 일반인들도 무궁무진하게 활용할 기회들이 열릴 수 있을 것 같아요. 자, 다음 소식도 굉장히 재밌어요. AI 글래스 를 이용해서 모르는 사람을 아는 척할 수 있는 레이라는 프로젝트입니다. 자, 이건 누가 한 거냐면, 두 명의 하버드대 학생들이 메타 사의 레이벤 글래스를 이용해서 시도를 해 본 것인데, 굉장히 재밌어요. 자, 메타 레이벤 안경을 쓰고 돌아다니는 겁니다. 자, 그러면 안경 카메라가 사람을 인식하게 되면, AI가 그 사람의 정보를 온라인에서 검색해 가지고, 정리해서 직접 개발한 앱에 전송을 해주는 거예요. 자, 그래서 돌아다니다가 어떤 사람을 찍었는데, 그 사람에 대한 정보가 나왔다면, 처음 보는 사람인데도 가서 아는 척을 할 수 있다는 거죠. "어, 당신 누구 누구죠? 뭐, 뭐 했던 사람이잖아요. 만나서 반갑습니다."라고 할 수가 있다는 겁니다. 상대방도 자기에 대해서 알고 있는 거를 들으니까 굉장히 반가워하면서 저렇게 인사를 나눌 수가 있다는 것이죠. "어, 당신의 페이퍼 읽어봤다." 뭐, 이런 것들. 어, 굉장히 흥미로운 프로젝트이고, 메타 레이벤 안경 카메라로 일단 비디오를 찍는 거예요. 그런데 메타 레이벤 같은 경우는 실시간 스트리밍 기능이 이제 인스타그램이 특정 앱에서만 구동이 되거든요. 그래서 인스타그램에 일단 실시간 비디오가 스트리밍되게 한 다음에 AI 프로그램이 그 비디오를 분석해서 거기에 나온 사람의 얼굴을 인식하는 거예요. 그리고 인식된 얼굴의 사진을 인터넷에서 검색한 다음에, 대규모 언어 모델 AI, 방대한 데이터 소스에서 이름과 사진 간의 관계를 자동으로 도출해 낸다고 합니다. 이것도 대규모 언어 모델이 있으니까 편해졌다는 거예요. 그래서 온라인 기사, 투표자 등록 정보 등을 통해서 주소, 전화번호 등을 검색할 수 있다. 자, 그렇게 분석된 내용이 내가 개발한 스마트폰 앱으로 들어오게 되면, 딱 읽어본 다음에 아는 척을 할 수 있다는 건데, "야, 이렇게도 AI 쓸 수 있겠구나." 그리고 카메라 안경을 이런 식으로도 활용할 수 있겠구나라는 다양한 가능성을 보여줘서 저는 굉장히 흥미롭게 봤습니다. 사생활일까요? 우리에게 유용한 누구일까요? 자, 다음 소식입니다. 일본의 타점에서 떡을 파는가 도입이 됐다는 소식이에요. 게이트 박스에서 만들었는데, 한번 보시죠. [음악] [음악] 이번 영어를 보여줍니다. 일본어 같은 했다, 목소리라고 해요. 그래서 뭔가 이질감이 있죠. 자, 제조사인 게이트 박스의 내용들을 요약해 드리자면, AI 카메라로 고객의 성별이나 연령대, 복장 등의 특징을 인식해서 말을 거는 거예요. "뭐 사아 먹어 봐라." 자, 각국 언어가 적힌 카드를 보여주면 아흔한 계의 언어로 대응이 된다라고 하고, 사람이 지나가지 않으면 슬퍼하는 표정을 짓거나 구매한 제품을 보여주면 기뻐하는 표현도 가능하다고 합니다. 캐릭터를 이용하면 상당히 재밌겠죠. 자, 저게 태블릿을 그냥 전형 디자인 박스에 세팅해 놓은 거예요. 그래서 박스 같은 경우에는 마음대로 이제 사람들이 꾸며낼 수 있는 것이고, 이용 비용이 월 2만 원, 그러니까 20만 원부터 합니다. 자세한 견적은 이제 문의를 해 봐야 된다고 하는데, 사람보다 이렇게 갖다 놓는 게 저렴해지기 된다면, 이런 시도들도 늘어날 수 있겠죠. 특히나 재미나고 귀여운 캐릭터를 이용한다면, 사람보다 나을지도 모르겠어요. 자, 그리고 이번엔 구글 소식입니다. 내가 찍은 사진들을 구글 포토에서 물어볼 수 있다고 해요. 예를 들어서 내가 방문한 공원들 중에서 찍은 사진 중에서 잘 나온 사진들만 골라 줘라고 하면, 내가 각각 공원마다 찍은 사진 중에서 베스트 포토만 골라 준다는 거고요. 또 다른 기능도 보여 드릴게요. 지금까지 열었던 딸의 생일 파티 테마들을 알려 달라고 하면, "어, 세 번째 때 뭐했고, 네 살 때 뭐했고, 다섯 살 때 뭐했어." 뭐, 이런 것들, 각각의 테마를 알려줍니다. 어떨 땐 공주 버전, 어떨 땐 무슨 버전, 이런 식으로 질문을 통해서 포토들을 정리해 준다. 자, 장소, 사람, 날짜뿐만이 아니라 테마, 생일 파티와 같은 자연어 개념도 이제 식별을 한다라고 하고요. 재미난 멀티모달 기능은 각 사진에서 일어난 일을 정확하게 이해하기 때문에 이게 가능하다는 것이죠. 하지만 아직은 실험 수준이고 모든 것을 올바르게 처리하지는 못한다고 합니다. 점점 좋아지겠죠. 자, 모든 사용자들이 쓸 수 있는 건 아니고 미국 일부 사용자들을 시작으로 해서 서비스가 출시되는데, 이럴 때는 참 제가 미국에 살지 않는 게 아쉽게 느껴집니다. 자, 이렇게 10월 달에 있었던 AI 뉴스들, 진짜 화려했지만, 이런 것들을 보시면서 앞으로 미래에는 어떤 일들이 펼쳐질지 생각해 보시면 상당히 재미날 것 같습니다.
네, 10월 달에 있었던 어도비 맥스 스닉 행사를 좀 요약해 드리려고 합니다. 매해 어도비사에서 행사를 열면서 지금 우리들이 이런 기능들을 개발하고 있다는 걸 살짝 맛보기로 보여 주는 거거든요. 그런 게 이제 시간 지나면 들어오니까. 자, 먼저 프로젝트 퍼펙트 블렌드입니다. 자, 포토샵에 남자 친구 사진을 지금 불러오고 있어요. 그리고 생성형 AI를 이용해서 배경을 제거해 줬는데, 그러면 어색하잖아요. 자, 색감도 안 맞고 그랬을 때, 버튼을 누르면 배경 이미지에 조도와 색감에 맞게 자연스럽게 섞어 주는 기능이 프로젝트 퍼펙트 블렌드입니다. 전과 후 비교해 보면 확실하게 이게 자연스럽죠. 그 밖에도 여러 사진들을 다 저렇게 묶어 가지고 자연스럽게 섞어 준다라고 해서 퍼펙트 블렌드는 거예요. 곧 이런 기능이 포토샵에 들어올 것 같고, 프로젝트 턴 테이블이라는 것도 있습니다. 지금 원래는 2D 이미지로 만들어져서 저게 회전이 안 되거든요. 그런데 이 이미지를 회전할 수 있게, 턴 테이블처럼 돌릴 수 있게 해 주는 기능을 지금 개발하고 있다는 거예요. 원래 2D 이미지인데, 저렇게 돌렸을 때 옆모습, 뒷모습까지 나온다. 자, 그러니까 돌렸을 때 어떤 이미지가 될 것인지를 AI가 파악해서 생성하는 방식이 저기에도 도입이 되었다고 보시면 될 것 같아요. 앞으로 일러스트레이터 작업하기가 편해지겠죠. 자, 다음은 음향 효과 슈퍼소닉이 대형 길이에 맞춰서 자연스럽게 섞고 있죠. 자, 이번에 우주선 영상에 우주선 소리를 클릭하기만 하면 알아서 우주선 소리를 생성하는 기능이 생겨납니다. 몇 가지 소리를 만들어 주는데, 제일 괜찮은 걸 들어본 다음에 선택하면 돼요. 자, 제일 재밌는 건 마지막에 나와요. 괴물의 울음소리를 내가 직접 대충 녹음을 하는 겁니다. 녹음 버튼을 누르고, 자, 그런 다음에 몬스터 울음이라고 적으면 어울리는 소리로 변형이 돼요. 앞으로 누구나 쉽게 이런 사운드들을 만들 수 있을 것 같고요. 자, 다음에는 리믹스라는 것이 있는데, 끄적끄적 홍보 포스터를 저렇게 만들었습니다. 그리고 버튼을 누르면 그럴싸한 포스터 디자인이 생성이 되는데, 이게 중요한 게 아니라 포스터를 다양한 사이즈로 생성해 주는 거예요. 다양한 레이아웃에 맞춰서 정보들을 넣어 주고, 이 이미지들 내가 직접 선택해서 옆으로 늘리거나 아래쪽으로 쭉 늘려도 그에 맞게 레이아웃이 바뀌니까 뭔가 디자인하기가 훨씬 편해지겠죠. 자, 다음은 프로젝트 하이파이라운드 활동이 가능해지겠죠. 자, 이번에 보여준 여러 가지 스닉 상당히 재밌었는데요, 여러분들이 가장 기대하시는 어도비의 차세대 기능은 무엇이었습니까? 네, 10월 달에는 오픈 AI 사의 CEO 샘 알트만이 블레니아 공동 창업한 툴스 포 유니티에서 인간 증명 서비스 월드에 대한 업그레이드 내용을 발표가 됐습니다. 굉장히 흥미롭거나 이었어요. 이 프로젝트는 우리나라에서도 이용할 수 있었는데, 곳곳에 있는 아이브라고 하는 동그란 홍채 스캔을 해 가지고 아이디를 발급받으면 월드 코인 이라는 것을 누구나에게 무료로 배포해 주게 됩니다. 그래서 많은 사람들이 그 코인을 받기 위해서 스캔을 많이 했었고, 우리나라에서도 성수동 같은 데 가면 저런 부스들이 있었거든요. 이 프로젝트에 사람들이 많이 관심을 가져 가지고, 현재 무려 1,500만 명이 가입을 했다라고 하고요. 홍채 인식 기계로 홍채 인식을 한 사람만 따지더라도 700만 명이 됐다라고 해요. 자, 이렇게 그들의 프로젝트가 차근차근 진행되고 있는데, 첫 번째는 인간을 증명하는 익명의 도구를 개발하고, 두 번째는 네트워크 소유권을 분배하고, 세 번째는 지속적인 확장 및 분산화, 네 번째는 AI 혜택을 모든 사람에게 제공하도록 사용하겠다 이들의 목표이고, 이제는 3단계에 와 있는 것 같다는 발표가 있었습니다. 자, 원래는 이게 AI 발전과 관련해서 기본 소득의 시대가 열릴 것이라고 가정을 하고, 그런 시대가 됐을 때 누가 돈을 받았고 안 받았는지를 구별하기 위해서는 블록체인을 통한 위변조가 불가능한 신원 증명 시스템을 만들어야 된다라고 해서 시작이 됐던 거예요. 자, 그런데 이제는 그게 확장이 돼 가지고 AI가 발전하다 보니까 AI가 사람 대신에 인간인 척을 하거나 일을 하거나 할 수 있기 때문에 누가 AI이고 누가 실제 사람인지를 구별하기 위한 그런 용도로서 쓸 것이라고 합니다. 자, 그래서 월드 코인 이라는 원래 명칭에서 코인 자를 뺐어요. 앞으로는 월드라고 부른다고 합니다. 인간 증명 시스템에 좀 더 집중하는 모습이고요. 이 자리에서 월드 ID 3.0에 대한 발표가 있었어요. 원래는 우리가 아이디를 발급받으려면 홍채 인식을 해서 신원 증명이 됐어야 되는데, 내 생체 정보가 넘어가는 것 같아서 찝찝하잖아요. 3.0 버전에서는 홍체 스캔을 안 해도 NFC 지원하는 여권을 이용해서도 아이디를 만들어 낼 수가 있다고 합니다. 자, 그래서 홍체를 스캔하든지 국가 공인 자격증을 등록하든지 이 두 가지 방법으로 접근성을 높이겠다는 발표가 있었고요. 자, 여권 정보 같은 경우에 앱에만 저장이 되고, 네트워크로 넘어가서 관계자가 보거나 하지 않는다라고 하고 있습니다. 자, 그런데 이렇게만 등록해도 토큰을 주는가? 토큰을 똑같이 준다고 합니다. 자, 그래서 이 사람이 실제 사람이라는 증명이 블록체인에 기록이 되면, 이 월드 ID로 도대체 뭘 할 수가 있는가? 여러 가지가 가능하겠지만, 그 중에 하나가 이번에 발표된 페이스라는 거예요. 인터넷에서 그 사람이 실제 사람인지 AI인지, 페이크인지 판별하는 데 활용이 될 수가 있다고 합니다. 그래서 줌 화상회의를 하는데, 지금 줌에서 나의 아바타를 이용해서 화상회의 참여가 가능한 그런 시스템이 개발이 됐잖아요. 그게 사람인지 AI인지, 페이크 판별하는 그런 기술을 보급하겠다라는 거예요. 굉장히 흥미로운 시도이기 때문에 월드 ID도 괜찮은 시도 같고요. 자, 그리고 이 자리에서 새로운 부에 대한 발표도 있었습니다. 자, 여러분들이 부가 있는 카페에 가셔서 커피를 주문한 다음에, 커피가 준비되는 기간 동안에 저 오버에 홍채 등록을 하는 거예요. 일단 앱을 켜 가지고 QR코드 스캔해 가지고 인간 증명을 시작하겠다라고 하면 이제 홍채 스캔이 시작이 됩니다. 자, 홍채를 지금 등록하고 있는 것이고, 자, 그래서 "당신은 인간이 맞다. 월드에 등록된 사람이다." 뭐, 이런 게 증명이 될 수도 있는 거고요. 자, 그런 다음에 이렇게 커피를 받는 건데, 가게 하시는 분들 같은 경우에는 이 부스를 구매해서 갖다 놓으면, 홍채 등록하고 싶은 사람들이 그 가게를 찾아올 수 있는 그런 효과도 누릴 수 있을 것 같아요. 자, 이 월드의 차세대 버전이 나온 것인데, 지금보다 앞으로 부스가 1,000개가 더 많이 필요할 것이다라고 예측을 했다고 해요. 많은 사람이 등록을 해야 하니까요. 그래서 더 빠르게 제조 가능할 수 있도록 부품을 30% 가량 줄였고, 제조하는 시간이 그래서 두 배로 향상되었다고 합니다. 홍채 인식하고 등록하는 스피드도 빨라졌다고 하네요. 자, 그리고 많은 사람들이 등록을 해야 되는데, 어디 장소에 찾아가기 어렵다, 그런 배달도 가능하다고 합니다. 라틴 아메리카에 1위 배달 업체와 제휴를 맺어 가지고 앞으로 부스를 주문해 가지고 집에서 홍채 스캔을 하는 것이 가능해졌다고 해요. 자, 마지막으로 이런 것들이 이용할 수 있는 앱, 월드 앱 3.0이 발표가 되어 있는데, 월드에 만에 미니 앱들이 앞으로 많이 포함이 된다고 합니다. 그래서 생활 경제 등을 아우르는 여러 기능을 이 앱 안에서 할 수 있어서 슈퍼 앱으로 진화를 해갈 것이라는 거예요. 한마디로 카카오 앱처럼 이것저것 기능이 포함될 것이라는 겁니다. 어떤 기능이냐? 일단 토큰 지갑으로의 기능도 당연하고, 신원이 증명된 그런 사람들과 채팅을 하거나 토큰이나 돈을 보낼 수 있게 한다든지, 여러 기능을 이 월드 앱에서 할 수 있게 해 준다는 거예요. 인간 신원을 증명하게 하면서 여러 기능들을 확장하겠다는 것이죠. 자, 이들의 꿈은 과연 이루어지게 될까요? 월드가 과연 인간 증명의 표준이 될 것인지, 세 개의 사람들이 이걸 이용해서 인간 증명을 하게 될 것인지, 한번 지켜보시죠.
네, 10월 달 가장 화제의 인물이라고 하면 역시나 일론 머스크 가 있던 것 같습니다. 이 사람이 참 대단한 것들을 많이 보여줬죠. 자, 먼저 테슬라의 위로봇 행사가 열렸습니다. 행사 후에 주가가 99% 하락이 됐는데, 사이버 로봇 택시의 비전을 저렇게 보여줬죠. 핸들도 없고 페달도 없습니다. 자, 그래서 앱으로 호출해 가지고 저 로봇 택시를 우리들이 앞으로 이용할 수 있게 된다라는 것을 보여줬어요. 이동하면서 일들을 할 수 있고 잠도 잘 수 있다라는 것이죠. 내부는 굉장히 깔끔하고, 자 택시다 보니까 저렇게 청소하는 것도 로봇을 이용해서 자동으로 해낼 것이라고 합니다. 여러 명이 탑승할 수 있는 밴의 모습도 보여줬어요. 셔틀버스라는 그런 역할을 할 수가 있겠죠. 테슬라의 FSD 자율주행 기능이 들어간 밴, 상당히 기대가 됩니다. 이 자리에서 옵티머스 로봇들이 저렇게 여러 대가 나와서 군중들 사이를 돌아다니며 사람들과 소통을 하고, 술을 따라주고, 쿠키를 나눠주고 하는 것들이 행사에서 나와가지고, 저는 굉장히 재밌게 봤습니다. 가위바위보도 하고 있는데, 저렇게 빠르게 반응을 한다고요. 자, 사람들은 왜 근데 이 행사에 실망을 했는가? 더 버지 사의 기사인데, 테슬라 사이버 캡은 멋져 보이는 프로토타입이 그 이상에 무언가가 필요했다는 평가를 내렸어요. 자, 기사 내용 요약해 보자면 센서 비전 시스템, 온보드 처리 능력 등에 대한 자세한 설명이 없더라는 거예요. 자, 그리고 이게 2년 후에 판매가 될 것이다, 사이버 택시가 낡고 지친 약속을 되풀이한다는 것이죠. 맨날 몇 년 후에, 맨날 몇 년 후에 될 것이다. 그래서 일런 머스크도 이번에 발표할 때, 자기도 이야기할 때 머쓱한지, 자기가 자율주행에 대해서 꽤나 낙관적인 경향이 있는데, 그럼 2026년, 뭐 그쯤에서 대량 생산될 거 같다라고 이야기를 했죠. 자, 무인 테슬라가 충돌했을 때 법적 책임은 누구한테 있는가? 그리고 규제는 지금 어떻게 해결하고 있는가? 그런 얘기가 전혀 없었고요. 무인 테슬라가 어딘가에 갇히거나 작동 불능 상태가 되면은 원격 제어를 해주는지 이런 문제가 실제로 일어났기 때문에 관심을 가졌었는데, 거기에 대한 해결 방법도 제시가 안 돼 가지고 실망을 했다라는 겁니다. 자, 그래서 어찌 보자면 지난 달에 보여준 테슬라의 FSD 기능이 시험 모습과 별반 차이가 없는 거예요. 자, 기능은 똑같고, 여기에서 핸들과 페달만 사라진 그런 정도라고 보시면 되겠고요. 달라진 점이라고 한다면 사이버 캡 같은 경우는 저렇게 무선으로 배터리를 충전할 것이라는 거죠. 그래서 새로운 내용이 사실 있었던 것은 아니죠. 자, 그리 로봇 같은 경우에는 저도 처음에 보면서 놀랐어요. 어 저렇게까지 자연스럽게 움직인다고. 근데 그것은 사실 사람이 뒤에서 원격으로 제어를 했다라는 것이죠. 이거는 전에도 있었던 논란이, 저렇게 옵티머스가 빨래 개는 모습을 보여주는데 알고 보니까 사람이 원격에서 수트를 입고 제어를 했다라고 해서 논란이 되기도 했죠. 자, 이건 5월 달에 공개한 영상인데, 저렇게 수트를 입고 제어하는 모습, 학습시키고 있는 모습들이 원래부터 공개가 됐었어요. 자, 그래서 이번에 저도 이 발표를 보면서 처음에는 놀랐다가 뭐 저렇게까지 반응이 빠르다고, 아 저거 원격 제어구, 원래부터 저런 발전 상황을 봤던 사람들은 쉽게 알아차릴 수가 있었죠. 자, 근데 이것도 사실 알고 보면 굉장한 기술인 것이, 사람이 멀리 떨어져 가지고 저 로봇을 제어하는데 딜레이도 없고 굉장히 안정적으로 원격 제어가 되고 있다. 이것도 사실 굉장한 기술의 발전이라고 할 수가 있을 것 같습니다. 자, 근데 실제로 자율로 기능을 한다라고 해요. 저렇게 걸어다니고 있는 모습, 자 공을 인식하면서 장애물을 스스로 파악하면서 피해가고 있는데, 여러 대의 옵티머스가 얻은 정보를 공유해서 공간 지각 능력이 업데이트가 되는 거죠. 그리고 스스로 배터리 충전을 할 수 있다라는 새로운 정보도 위로봇 행사 후에 공개가 됐습니다. 저에 다 자율로 작동이 되고 있는 것이라고 해요. 물론 속도는 높였지만 부분부분 지금 속도를 높여서 보여주고 있어요. 그래서 느릴 뿐이라고 보시면 될 것 같습니다. 자, 그래도 그 카메라만을 이용해서 저런 것들이 가능하다라는 거, 그건 상당히 저는 높게 평가해야 되지 않을까 싶어요. 느리기는 하지만 어쨌든 되긴 된다라는 것을 다시 증명을 해 줬어요. 그래서 저는 이렇게 생각이 들더라고요. 새로운 기술 공기는 크게 없었지만, 그간의 기술로 미래 생활 비전을 아주 생생하게 보여준 점이 굉장히 인상 깊었던 행사 같았습니다. 자, 다음 일론 머스크 의 스페이스 X , ES 또 1을 냈죠. 우주 탐사에 새 지평을 열었다는 평가가 나오고 있는데, 자 저렇게 로켓을 쏘고 있습니다. 달 탐사, 화성 탐사를 위한 우주선을 실은 로켓을 쏘아 올린 거고요. 놀라운 점은 어디서 시작이 되냐면 우주선을 분리한 다음에 로켓 추진체가 다시 지구상 돌아와서 착륙을 해서 재사용에 사용이 되는 건, 뭐 예전부터 알고 있었지만, 이번에는 발사대의 저 로봇팔에 다시 로봇이 착안해 가지고 착륙을 하게 됐다는 거예요. 그래서 이거를 첫 번째 시도한 건데, 성공을 했다라고 해서 굉장히 좋은 평가가 많이 나오고 있는 그러한 성공 사례였습니다. 멋지죠? 자, 근데 저는 이게 뭐 그렇게 대단한 건가? 처음에 의문을 가졌던 것이 원래부터 추진 로켓을 바다 위에 바지선 배로 다시 재착륙시켜 왔잖아요. 뭐가 다른 것인가? 이번에 회수된 로켓은 슈퍼 헤비하고 해가지고 큰 화물과 화성 탐사를 위한 대용량 로켓이 있다는 거예요. 그래서 원래대로 이렇게 바지선 위에 착륙하고 그런 게 안 된다라고 합니다. 그래서 기존 방식대로 지상 창기 어려워서 메카질라라 하는 발사대 로봇팔을 한번 시도를 해 본 거예요. 근데 그게 성공을 하게 된 것이고, 슈퍼 헤비 로켓의 재사용이 가능해졌기 때문에 발사 비용이 저렴해지는 효과를 우리가 누릴 수가 있는 거고, 바지선 배 위에 착륙을 하면 그거를 또 가져와서 발사대에 실고 해야 되는데, 이번엔 그럴 필요 없이 그 발사대에서 바로 발사가 가능하다라고 해서, 비용과 시간을 절약할 수가 있다는 것이죠. 자, 달 화성 탐사와 같은 대규모 미션의 비용을 절감하는 데 큰 의미가 있는 사건이라는 거예요. 자, 이렇게 10월 달에 일론 머스크 가 보여준 것들에 대해서 여러분들은 어떤 생각을 가지고 계시나요? 저는 일론 머스크 가 일론 머스크 했다라는 생각이 가장 먼저 들어요. 과장도 많지만 결국 엄청난 것을 또 해내는 사람이다라는 생각이 들었습니다. 여러분들은 어떤 생각이셨는지 있었어요.
먼저 일본 카시오에서 치유형 반려 로봇 모플린 출시하게 됩니다. 저 반려 로봇이에요. 아주 귀여운 생명체가 내 옆에서 이렇게 거 생활을 하게 된다는 겁니다. 언제나 내 옆에 있으면서 나를 치유해줄 수 있는 귀여운 로봇, 생명, 어떠세요? 저런 거 갖고 싶으신가요? 끙끙거리면서 이렇게 스킨십도 할 수 있는 건데요. 자, 요게 성격을 굉장히 다양하게 형성을 시킬 수가 있다고 해요. 쓰다듬고 말을 걸면 긍정적인 부분이 활성화되고, 놀래키고 그러면 마이너스 부분이 활성화가 된다고 합니다. 그래서 그런 것들이 쌓이고 쌓이고 쌓이게 되면서 다양한 성격을 형성하게 된다라는 것이죠. 주인이 키우는 방법에 따라서 성격이 무려 400만 개로 변형이 될 수 있다라고 해요. 얼마나 차이 나는지 궁금하고, 전용 앱을 통해서 모플린 의 현재 감정을 시각적으로 확인하는 것도 가능하고요. 2024년 11월 7일에 출시가 되는데, 가격이 우리돈으로 60만 원 정도로 싸지는 않습니다. 또 재미난 점은 수리나 목욕 서비스가 포함이 된 클럽 모플린 이 연간 6600엔, 그러니까 66,000원 정도의 추가 비용으로 또 가능하다라고 해요. 무게는 260g, 상당히 가볍고요. 배터리 가동은 약 5시간 정도라고 합니다. 과연 치유형 로봇이 성공하게 될지 상당히 궁금하고요. 다음은 사다리를 오르는 사족보행 로봇 의 영상이에요. 너무 빠르게 올라갑니다. 굉장히 빠른 속도로 올라가고 있죠. 자, 이게 중요한 건 뭐냐면, 기존의 로봇들은 사다리를 너무 느리게 올라갔어요. 그러다 보니까 뭐 재난 상황이라든지 그런 데서 실용성이 없다라고 볼 수가 있겠죠. 근데 사족보행 로봇 은 저렇게 빠르다. 비결은 뭐냐? 사다리 오르게 맞춤형으로 만든 저 발이에요. 딱 걸쳐지게 하고, 강화 학습을 통해서 시뮬레이션 학습을 다양한 환경에서 시켜 낸 것이죠. 그러다 보니까 성공률이 굉장히 높다라고 합니다. 여러 가지 상황에서 저렇게 올라갈 수 있다는 걸 보여주고 있고, 뭔가 실수를 하더라도 바로잡고 올라간다고 해요. 재미난 점은 사람이 지금 방해를 하고 있습니다. 못 올라가기에 자, 그렇게 심하게 방해하고 있지 않은데 그래도 기어이 올라가는 모습을 보여주고 있어요. 자, 이거는 취리히 연방 공과대학교 연구진이 애니 보틱스 사의 사족보행 로봇 을 활용한 것이라고 하고요. 최신 기술, 이전 기술보다 22배 빠른 속도로 사다리를 올라간다고 합니다. 자, 70에서 90도 범위의 사다리 각도에서 90% 성공률로 올라가는데 제로 샷이라고 해요. 이 말이 뭐냐면 처음 보는 환경에 갖다 놔도 올라간다는 겁니다. 90% 확률로요. 자, 그리고 실시간으로 수정해서 사다리 등반을 조정하는 기능도 있다고 해요. 재난 현장이나 군사 현장에서 상당히 잘 쓰일 수가 있겠죠. 자, 마지막으로는 사랑 같은 로봇들의 대화, 아메카와 아지 로봇의 대화 표정에 주목해 한번 보시죠. 자, 시무룩한 표정까지. 자, 이게 영국의 본사를 둔 엔지니어링 아트 사에서 개발한 아메카, 아지 로봇이고, 원래 처음으로 공개된 건 아니고 2021년 12월에 첫 공개가 돼서 계속해서 화제를 모았던 로봇이에요. 자, 마이크, 카메라, 얼굴 인식 소프트웨어 등으로 사람과 소통하는 기능이 있고, 인간과의 상호 작용은 대규모 언어 모델 혹은 인간의 원격 제로 이루어진다고 하는데, 그거보다 놀라운 건 표정이 진짜 좋아졌다라는 것이죠. 요즘에 휴머노이드 로봇 들이 많아지는데, 저기에 저 표정까지 들어간다. 굉장히 자연스러운 휴머노이드 로봇 이 향후에 나타나지 않을까라고 기대를 불러일으키는 것 같습니다. 자, 이렇게 10월 달에 보여드린 세 가지 로봇 중에서 뭐가 제일 흥미로웠는지, 그리고 어떤 로봇을 여러분들은 제일 갖고 싶으신지 댓글로 적어 주시면 좋을 것 같습니다.