본문 바로가기

전체 글

(18)
[Paper Review] Magic3D: High-Resolution Text-to-3D Content Creation_2023-2 Sources https://research.nvidia.com/labs/dir/magic3d Magic3D: High-Resolution Text-to-3D Content Creation Magic3D: High-Resolution Text-to-3D Content Creation *† : equal contributions NVIDIA Corporation IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2023 HIGHLIGHT Magic3D is a new text-to-3D content creation tool that creates 3D mesh mode research.nvidia.com
[Paper Review] Magic3D: High-Resolution Text-to-3D Content Creation_2023-2 Sources https://research.nvidia.com/labs/dir/magic3d
[Paper Review] How Transferable are Video Representations Based onSynthetic Data?_2023-1 My Motivation 데이터 부족 문제를 시뮬레이션 데이터(or 합성데이터)를 통해 해결하는 것이 나의 연구/개발의 목표이다. 아직 합성데이터의 활용도가 높아지기에는 아직 가야할 길이 멀지만, 중간 스텝으로 합성데이터를 pre-train으로 사용하고, 합성데이터에서 배울 수 있는 representation을 타겟 테스크에 잘 가져오는 학습 방법이 유효하다고 생각하기에 해당 논문을 찾게 되었다. Contribution 1. Synthetic data 기반으로 action representation의 transferability를 6가지 테스크로 실험함 2. SynAPT(Synthetic Action Pre-training and Transfer) benchmark 제안 3. 위 실험을 통한 주요 인싸이..
PyTorch: gather def _gather_feat(feat, ind, mask=None): dim = feat.size(2) ind = ind.unsqueeze(2).expand(ind.size(0), ind.size(1), dim) feat = feat.gather(1, ind) if mask is not None: mask = mask.unsqueeze(2).expand_as(feat) feat = feat[mask] feat = feat.view(-1, dim) return feat torch.gather torch.gather(input, dim, index, *, sparse_grad=False, out=None) → Tensor dim에 해당하는 axis에서 해당하는 index의 value만을 gather하는 함..
PyTorch: cumsum torch.cumsum() torch.cumsum(input, dim, *, dtype=None, out=None) → Tensor dim=N의 방향으로 누적합을 구하는 함수 만약 input이 N size의 백터라면, 결과는 N size의 같은 크기의 백터를 뱉는다. 실제 사용 예: semantic segmentation처럼 dense label을 만들 때, ignore vlaue를 제외한 mask를 만들거나 foreground mask를 생성할 때 binary mask를 이용하여 원하는 값을 걸러낸다. 보통의 label은 1 channel인데, class 개수만큼의 channel를 만들고, 그 위치에 해당하는 label 값을 넣고 싶을 때 아래와 같이 할 수 있다. label_expand = torch..
PyTorch: matmul, mm, bmm torch.matmul vector 및 matrix 간의 다양한 곱을 수행한다. broadcast 기능을 제공하며 가장 일반적으로 사용되나, broadcast 기능이 도리어 debug point가 될 수 있다. broadcast 기능은 아래의 예제와 같이 T1(10, 3, 4) T2(4)을 곱할 때, 맨 앞의 dim이 3개 일 때는 첫 dim을 batch로 간주하고 T1 (3, 4) tensor의 10개의 batch와 각각 T2(4)랑 곱을 해주는 것이다. torch.matmul(input, other, *, out=None) → Tensor torch.mm torch.matmul과 차이점은 broadcast가 안 된다는 점이다. 즉 mm은 정확하게 matrix 곱의 사이즈가 맞아야 사용이 가능하다. 따..
Instance segmentation survey 기존의 자료들이 paper review만 하는 informatic slide가 아니라 풀려고 하는 문제를 어떻게 접근했고, 그 접근 방식이 어떻게 발전했는지 보여주면서 자연스럽게 자신이 고민하고 있는 문제를 어떻게 풀어갈지 Inference 할 수 있게 도와주는 slide인 거 같다. overview Instance Segmentation Outline Introduction Network Architecture - FCN-driven Methods (Segmentation-first) Instancecut CVPR17 Deep watershed CVPR17 Pixelwise instance segmentation with a dynamically instantiated network.CVPR17 SGN..
Reinforcement Learning Roadmap (강화학습 강의) Reinforcement Learning: Math background(수학 기본): Out of all the important branches of math commonly recommended to learn machine learning in general (prob, stats, linear algebra, optimization, calculus), probability and calculus are the most important. The former is because value function at the end of the day is just repeated application of total probability theorem and total expectation theorem..