수어뉴스 촬영 당시의 기준으로 제작된 영상입니다.
오늘 업로드 기준으로 하여 공영방송 뉴스내용에 다를 수 있으니 이 점 유의하시기 바랍니다.
감사합니다!
한국농아방송 담당자
#수어뉴스 #뉴스 #한국수어 #수어 #수화 #Deaf #농인 #청각장애 #한농방 #한국농아방송 #한농협 #한국농아인협회
한국농아방송
유튜브 : https://www.youtube.com/channel/UC7lV-1pINvjayeZ8CyvAG0Q
페이스북 : https://www.facebook.com/profile.php?...
카카오톡채널 링크 : http://pf.kakao.com/_dyYVxb
다음카페 : https://cafe.daum.net/deafon
인스타 : https://www.instagram.com/dbn_deafkorea/
틱톡 : https://www.tiktok.com/@dbndeafkorea?...
안녕하세요? 한국농아방송 이재란앵커입니다.
최근 인공지능(AI) 기술을 활용한 이미지 학습 기술이 빠르게 발전하고 있습니다. 이러한 기술은 자율주행차, 얼굴인식 등과 같은 분야에서 높은 성능을 발휘하며, 다양한 분야에서 응용될 가능성을 보이고 있습니다. 그러나 이러한 기술의 발전은 악용 우려를 불러일으키고 있는데요. 인공지능 이미지 학습을 활용하여 성착취물, 인종차별적인 내용의 이미지 등을 만들어내는 사례가 점점 늘어나는 상황입니다.
이러한 이미지 학습 기술은 얼굴인식 분야에서도 악용될 가능성이 있습니다. 이를 악용하면 범죄자들이 범행 후 얼굴을 가리거나 변형시키는 등의 방법으로 범행을 피하는 것이 가능해지는데요. 현재 인공지능을 사용하여 만들어 낸 가상인물을 성착취물 산업에 활용전문가들은 현실 인물의 초상권 침해나 여성에 대한 왜곡된 가치관을 심하는 사례도 나오고 있어 심어줄 가능성이 높다고 지적하고 있습니다.
딥페이크 처벌법으로는 실존 인물의 이미지를 사용하여 만든 성착취물을 처벌할 수 있지만, 인공지능을 이용한 학습 결과물은 수많은 인물의 이미지가 합쳐져 만들어지기 때문에 책임을 묻기 어려울 수 있는데요. 전문가들은 인공지능을 이용한 성착취물의 악용을 막기 위해서 관련 법률을 강화하고, 이미지 제작자의 책임을 명확히 할 수 있는 시스템이 필요하다는 의견을 밝히기도 했습니다.
인터넷 동영상 서비스 틱톡의 경우 합성 영상 등 허위 정보의 유포를 막기 위해 가이드라인을 강화했다고 하는데요. 틱톡은 최근 업데이트된 가이드라인에서 합성 영상 등의 경우 명시적인 표기를 요구하며, 스티커나 캡션 등을 이용해 ‘합성’ ‘허구’ ‘실제 아님’ ‘변형됨’ 등을 명확히 언급하도록 권고하고 있습니다. 또한 내용을 준수하지 않을 경우 해당 콘텐츠는 삭제될 수 있고, 이러한 가이드라인 강화는 틱톡을 통한 합성 영상이 허위정보로 전파되는 문제에 대한 대응책으로 보입니다.
인공지능 이미지 학습 기술의 발전은 미래 사회에 많은 혜택을 가져다줄 수 있지만, 그만큼 악용 가능성도 염두에 둬야 할 텐데요. 이러한 문제를 해결하기 위해서는 엄격한 규제와 감시, 윤리적인 가이드라인의 마련이 필요할 것으로 보입니다.
수어뉴스를 마치겠습니다.
감사합니다.