• 이 글은 워크플로들 중 하나다.
    • bb6_2. [entry] title: 워크플로
  • 아래 글은 리서치보다 보다 넓은 ‘문제해결’이라는 범주를 다루는 체크리스트다.
    • bb6.1. [entry] title: 창업, 문제해결, 기술학습 등 태스크에서 빠르게 달성하기 위한 체크리스트
  • 그래서 위 체크리스트와 아래 글의 내용을 결합하여 리서치에 활용할 수 있는 데일리 워크플로를 만든다. 이 엔트리포인트는 아래 엔트리포인트에 나열된 내용들과 리서치를 위해 활용할 수 있는 글들을 골라 리서치 워크플로를 위해 재조립하는 것을 목표로 한다.
    • 3__1.2_2.1_2. [entry] title: 무지에 대한 불안과 지식으로 전환하는 속도에 대한 불안을 해소하는 방법을 정리한 엔트리
  • 리서치에 있어 이런 고민을 시작한 이유
    1. 당장 딥러닝 관련 리서치를 해야 하는 상황들이 있었는데 지나치게 막막했다.
    2. 때마침 ‘당장 무엇을 해야 하는가’ 에 답할 수 없다는 것이 리소스를 잡아먹는다는 생각을 했다.
      • ‣
    3. 앞으로도 리서치를 할 수 있는 기회들이 있다고 판단했기 때문이다.
    4. LLM 도구들을 적절한 타이밍에 사용하면 생산성을 끌어올릴 수 있을 것이라고 생각했다.
      • 3_3_7.2. [info] title: 리서치 도구
  • 워크플로
    1. 키워드를 얻는다.
      • 입력
        • 흥미로운 오픈소스, 오픈소스가 주력으로 사용하는 방법론, 논문의 제목, 키워드
        • 가이더가 있는 경우, 특정 태스크를 수행하기 위해 풀어야 하는 질문
        • 충분히 이터레이션을 돌았을 때, 확인해 보아야 하는 소스코드
      • 반복
        • 관심사가 일치하는 사람들의 커뮤니티를 찾아 들어간다. 끊임없이 키워드를 공급받을 수 있다. 트위터(형기님의 추천), 오픈카카오톡방 등을 사용할 수 있다.

          • ‣
        • 얻은 작은 단서들을 바탕으로 단순히 구글 검색한다. 유튜브, 튜토리얼, 뉴스레터 등.

          • ‣
        • 이 과정에서 영어를 읽다가 일부 단어가 대해 학술 용어인지, 그냥 함축적 표현인지 이해가 가지 않을 때 가차없이 LLM 을 활용한다. (SOTA: GPT4)

          'unified framework for 3D content creation from text prompts, single images, and few-shot images, by lifting 2D text-to-image generation models.'
          
          이 문장에서 lifting 이 의미하는 것이 뭐야?
          
        • 문제에 대한 키워드를 얻고자 한다면 LLM 을 활용한다. (SOTA: Scispace)

          딥페이크 태스크에서 얼굴A 를 얼굴 x에 입혀서 만들어진 이미지가 x_a이고 얼굴 A를 얼굴 y에 입혀서 만들어진 이미지가 y_a일 때, 이때 x_a와 y_a를 비슷하게 만들기 위한 연구들에 대한 키워드
          
        • 논문에서 키워드를 빠르게 추출하고자 한다면, 특정 내용이 존재하는지 확인하기 위해 LLM 을 활용한다. (SOTA: Scispace). Scispace 의 RAG을 이용해 질문을 입력해 보는 것이 큰 도움이 된다.

          • 예시
      • 결과물
        • 키워드 5개 - 키워드(논문 제목이 아님)가 의미하는 것, 풀고자 하는 문제 테이블
          • 관련도가 높은 것으로 꼽았기 때문에, 문제와 직접적으로 관련이 있는 것들 위주로 도마 위에 올라갈 것임. 이것은 초기 학습 시 매우 유용함.
          • 반복하면 반복할수록 근처의 키워드로 검색 범위가 커져 나갈텐데, 이때 제텔카스텐의 위력이 잘 드러날 수 있음. 시드가 충분히 쌓일 때까지 너무 욕심부리지 말자.
        • 내가 하고자 하는 일과 비슷한 것들 순서로 정렬
        • 조금 오개념이 있어도 괜찮음
        • 제텔카스텐 - permanent 노트를 작성할 필요 없음
          • 나중에 반드시 여기에 돌아올 것임. 그때 작성하면 됨.
        • 제텔카스텐 - 궁금한 것들이 담겨 있는 fleeting 노트들
        • 모듈별 소스코드
    2. 역사를 중심으로 커다란 개념을 의미적으로 알아본다.
      • 반복
        • 각 키워드들을 바탕으로 역사를 구글 검색한다.

        • 제텔카스텐 방식으로 글을 쓴다.

          • 수식을 마주칠수도 있고, 의미들을 마주칠수도 있다. 여기서 중요한 것은 단순히 수식을 너머 의미를 파악하려고 노력하는 것이다. 단순히 구글 검색을 했을 때 나오는 것들을 적어 대지는 마라.
            • ‣
          • 어디까지 다이브를 해볼 것인가의 기준은 플리팅노트/질문의 갯수가 되면 좋을 것 같고, 어느 깊이까지 공부를 할 것인가의 기준도 제텔카스텐 영구노트/프로젝트노트의 갯수가 되어도 좋다. 마일스톤은 키워드의 SOTA 논문의 소스코드를 따라갈 수 있는 것이다.
        • 잘 정리되어 있는 하나의 글을 정독하는 것은 좋은 방법이다. 해당 아티클이 레퍼런스로 언급한 논문들은 문서 폴더와 라이브러리에 넣는다. (SOTA: Scispace)

          Untitled

          Untitled

          • ‣
        • 글을 바탕으로 피드백을 받는다.

          • 1_2_5. [긴글] title: 삽질을 줄이고 성장을 만드는 '피드백 루프' 의 중요성, 환경과의 관계
        • 피드백을 위해 LLM 을 활용한다. (SOTA: GPT-4)

          <글>
          
          - 이런 짧은 글을 작성해 봤는데 잘못된 개념이나 문제를 지적해 줘.
          - 글을 개선해 줘.
          
        • 오개념을 고친다.

        • ⏳ 위까지를 몇 번 이상 반복한 뒤, 사람에게 피드백을 받는다.

        • 오개념을 고친다.

      • 결과물
        • 제텔카스텐 - permanent 노트
        • 제텔카스텐 - 아이디어들이 담겨 있는 fleeting 노트들
        • 역사를 나만의 단어로 정리하려고 노력하는 것이 중요함
          • 2_1_3_2_1.1. title: 메타러닝(meta learning) - 학습에 도움이 되는 좋은 설명이란 설명하고자 하는 대상을 나의 추상적 사고 수준을 고려한 설명이다.
        • 꼭 필요한 경우가 아니라면, 프로그래밍을 하지 않는다.
    3. 제안된 방법론들을 이해하고 한계(limitation)를 찾아낸다.
      • 입력
        • 제텔카스텐 - permanent 노트들
        • 제텔카스텐 - fleeting 노트들
      • 반복
        • 논문 읽기
          • 일반적으로 논문을 읽는 방법이라고 여겨지는 것들을 쭉 따라가되, 가장 마지막 단계까지는 가지 않는다. 이 과정에서 모든 기술을 의미론적으로 파악해야 한다. 의미론적이라고 파악한다는 것은 모델이나 방법론이 데이터를 처리하는 커다란 의미를 파악하는 것이다.
            • 2_1_3_2_1.1____2. [info] title: 학술논문을 효율적으로 읽는 방법
            • 2_1_3_2_1.1____2.1. title: 인공지능 모델 관련 논문을 읽을 때에는 데이터를 바라보는 능력을 기른다고 생각하라. 프로덕션에서 모델을 구현하거나, 고도화할 때에는 모델에게 데이터를 바라보는 방법을 알려준다고 생각하라.
          • method
            • 의미론적 파악
              • 2_1_3_2_1.1____2.1. title: 인공지능 모델 관련 논문을 읽을 때에는 데이터를 바라보는 능력을 기른다고 생각하라. 프로덕션에서 모델을 구현하거나, 고도화할 때에는 모델에게 데이터를 바라보는 방법을 알려준다고 생각하라.
            • 구글 검색하기
            • LLM 검색하기 (SOTA: Scispace)
          • limitation
        • 피드백을 위해 LLM 을 활용한다. (SOTA: GPT-4)
        • ⏳ 위까지를 몇 번 이상 반복한 뒤, 사람에게 피드백을 받는다.
      • 결과물