갤러리 이슈박스, 최근방문 갤러리
연관 갤러리
애니-일본 갤러리 타 갤러리(0)
이 갤러리가 연관 갤러리로 추가한 갤러리
0/0
타 갤러리 애니-일본 갤러리(0)
이 갤러리를 연관 갤러리로 추가한 갤러리
0/0
개념글 리스트
1/3
- 성추행 혐의 출석하는 허경영 ㅇㅇ
- 최재천 저격함. ㅁㅇㄹ
- 6년 사귄 남친을 보내며 ㅇㅇ
- 먹방 스타 사망... ㅁㅇㄹ
- 아사다 마오, 김연아의 벽에 고통스러웠다... 은퇴 8년만의 고백 난징대파티
- '하루 전화 100통' 해병대 장교의 스토킹 "잃을 게 없다" 해갤러
- 남해에서 수제 식혜 기부한 염정아.jpg 감돌
- 한녀들의 결정사 요구사항 ㅇㅇ
- 어느 패션 유튜버가 생각하는 다양한 패션 소화에 적합한 몸.jpg ㅇㅇ
- 늪에 빠진 젊은 남성들에게 조언을 해주는 한 사업가...jpg 앤드류테이트
- 외국인이 평가한 부산 vs 서울.jpg 74
- 교사인데 요새 애들 진짜 심해요.jpg ㅇㅇ
- 왜 유럽과 미국은 격차가 나게 되었을까? 싱붕이
- 아무도 안써서 내가 쓰는 폐족 전반기 결산(1) 조지부스
- “욱일기 벤츠 女차주, 스티커 찢자 신고” 계속되는 목격담 ㅇㅇ
프랑스 국가대표팀 'JAP' 표기 논란
얼마 전에 이런 일이 있었던 건 알텐데이 기사의 댓글 반응을 먼저 봐야겠지?악의적인 건 아닐지도?딱히 아닌 것 같은데?감이 오질 않는데?인종차별 맞아?그냥 예민한 거 아닐까?아 그렇구나 일본인은 차별을 당하지 않는구나~우리 짱쪽은 제발 빼주세요어떻게 알았놐ㅋㅋㅋㅋㅋㅋㅋㅋㅋ아주 귀찮은 사람들이야! 세카이가 알아야 한다구!한국인이니까'내로남불' 수출됐네ㅋ그런데 바로 이게 내로남불 아닐까?이런 기사가 났음 뭐가 어쨌다는 건지 찾아 봄아니 국가 코드가 보통 앞 세글자를 따는 경우가 많으니까KORBRAENGCANDEU아니 JAP으로 표기한 게 그렇게 큰 잘못임?사과를 받아야 한다강하게 항의하자일본인이 외국인한테 멸시 당하던 게 이제서야 갑자기 생각나셨나봐요ㅋㅋㅋㅋㅋㅋ분명희 희찬이 기사 댓글에는 그런 일은 없다고 하시던데ㅋㅋㅋㅋㅋㅋㅋㅋ아주 불쾌하심와 이런 건 우리도 당해본 적이 없는데ㅋㅋㅋㅋㅋㅋㅋㅋ 외국인한테 멸시당한 사례가 자주 있었네요이제서야 느껴지는 악의ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ위에선 아시아로 엮지 말아달라면서 지들이 당하니까 '아시아인' 차별ㅇㅈㄹㅋㅋㅋㅋㅋㅋ 누가 봐도 그냥 프랑스 일본 축구 경기인데? 그냥 JAP차별ㅋㅋㅋ 아시아는 1도 관련 없음ㅋㅋㅋㅋㅋ아주 노골적인 차별행위라고 하시네요일본인을 화나게 만들지마라항의는 아주 당연하답니다우리는 인도네시아나 캄보디아 카메룬처럼 앞 세글자를 국가코드로 쓰지 않는다구!ㅠㅠㅠ이 댓글이 나한텐 가장 와닿았음네? 리스펙요? 왜 그런 건 즈그들한테만 적용이 되는 거죠?자의식 과잉, 피해망상, 쪽로남불 진짜 좆됨ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ끝
작성자 : ㅇㅇ고정닉
라이브 비디오를 실시간 스타일 변환하는 'Live2Diff' 등장
https://www.aitimes.com/news/articleView.html?idxno=161703 라이브 비디오를 실시간 스타일 변환하는 AI 도구 등장 라이브 비디오 스트림을 즉시 애니메이션으로 변환하는 인공지능(AI) 도구가 나왔다. 기존과는 다른 '단방향 어텐션 모델링(uni-directional attention modeling)' 방식으로 성능을 높였다는 설명이다. 벤처비트는 17일(현지시간) 상하이 AI연구실과 막스 플랑크 정보학연구소, 난양이공대학교 연구진이 라이브 비디오 스트림을 실시간으로 스타일 변환하는 AI 도구 ‘라이브2디프(Live2Diff)’ 논문을 아카이브에 게재했다고 전했다.라이브2디프는 라이브 비디오 스트림 처리를 위한 비디오 확산(diffusion) 모www.aitimes.com라이브 비디오 스트림을 즉시 애니메이션으로 변환하는 인공지능(AI) 도구가 나왔다. 기존과는 다른 '단방향 어텐션 모델링(uni-directional attention modeling)' 방식으로 성능을 높였다는 설명이다. 벤처비트는 17일(현지시간) 상하이 AI연구실과 막스 플랑크 정보학연구소, 난양이공대학교 연구진이 라이브 비디오 스트림을 실시간으로 스타일 변환하는 AI 도구 ‘라이브2디프(Live2Diff)’ 논문을 아카이브에 게재했다고 전했다.라이브2디프는 라이브 비디오 스트림 처리를 위한 비디오 확산(diffusion) 모델에 단방향 어텐션 모델링을 구현한 첫번째 사례로 소개됐다.일반적으로 비디오 확산 모델은 기반이 되는 트랜스포머 아키텍처의 기본 구성 요소인 어텐션 메카니즘의 양방향 특성 때문에 라이브 비디오 스트림에 대한 실시간 처리가 불가능하다. 일반적으로 문장 속 단어와 같은 순차 데이터를 학습해 맥락과 의미를 추적하는 트랜스포머 모델은 서로 떨어져 있는 데이터 요소들의 관계를 이해하는 데 어텐션 메커니즘을 사용한다.이런 트랜스포머의 어텐션 메커니즘을 라이브 비디오에 적용할 경우, 비디오 프레임 간의 관계를 이해하기 위해 과거 프레임과 미래 프레임 모두에 대해 시간적으로 양방향 처리가 필요하다. 특히 미래 프레임을 처리를 위해서는 지연이 불가피하다.이 문제를 해결하기 위해 라이브2디프는 각 프레임에 대해 미래 프레임 없이 과거 프레임과 몇 개의 초기 워밍업 프레임만 연관시켜 시간이 흘러도 일관성을 유지하는 단방향 어텐션 모델링을 도입했다.연구진은 "우리의 접근 방식은 미래 프레임 없이도 시간적 일관성과 자연스러움을 보장한다”라며 “이는 실시간 비디오 번역 및 처리를 위한 새로운 가능성을 열어준다"라고 설명했다.특히 이 기술은 엔비디아 '4090 GPU'와 같은 일반 소비자 하드웨어에서 초당 16프레임의 속도로 비디오를 실시간 온디바이스 처리하도록 최적화됐다.연구진은 실시간 웹캠 입력을 사용해 얼굴을 애니메이션 스타일 캐릭터로 변환하는 라이브2디프의 능력을 시연했다. 광범위한 실험 결과, 라이브2디프가 시간적 일관성과 자연스러움에서 기존 방법을 능가한다는 것을 양적 측정 및 사용자 연구에서 확인했다고 전했다.라이브2디프는 엔터테인먼트 산업에서 실시간 스트리밍과 가상 이벤트를 재정의할 수 있는 잠재력을 가지고 있다는 평이다.증강 현실(AR)과 가상 현실(VR) 분야에서 몰입형 경험을 향상할 수 있고, 실시간 스타일 전송을 통해 실시간 비디오 피드에서 현실 세계와 가상 환경 간의 간극을 줄일 수 있다. 또 게임이나 가상 투어, 건축 및 디자인과 같은 전문 분야에서도 응용될 수 있다.연구진은 라이브2디프의 전체 코드를 곧 오픈 소스로 공개할 계획이다.https://arxiv.org/html/2407.08701v1 Live2Diff: Live Stream Translation via Uni-directional Attention in Video Diffusion Models Live2Diff: Live Stream Translation via Uni-directional Attention in Video Diffusion Modelsarxiv.org
작성자 : ㅇㅇ고정닉
차단하기
설정을 통해 게시물을 걸러서 볼 수 있습니다.
댓글 영역
획득법
① NFT 발행
작성한 게시물을 NFT로 발행하면 일주일 동안 사용할 수 있습니다. (최초 1회)
② NFT 구매
다른 이용자의 NFT를 구매하면 한 달 동안 사용할 수 있습니다. (구매 시마다 갱신)
사용법
디시콘에서지갑연결시 바로 사용 가능합니다.