<?xml version="1.0" encoding="UTF-8" ?>
<rss version="2.0">
    <channel>
      <title>DY&#039;s DS</title>
      <link>https://my-works-kohl.vercel.app</link>
      <description>Last 10 notes on DY&#039;s DS</description>
      <generator>Quartz -- quartz.jzhao.xyz</generator>
      <item>
    <title>DY의 DS</title>
    <link>https://my-works-kohl.vercel.app/</link>
    <guid>https://my-works-kohl.vercel.app/</guid>
    <description><![CDATA[ 제가 읽었던 논문들, 그리고 연구제안들을 올려둡니다. E-mail : doyun317@gmail.com. ]]></description>
    <pubDate>Fri, 07 Nov 2025 08:11:12 GMT</pubDate>
  </item><item>
    <title>기관 특화 LLM 구축을 위한 아키텍처 전략</title>
    <link>https://my-works-kohl.vercel.app/Resaerch_Prorpsal/%EA%B8%B0%EA%B4%80-%ED%8A%B9%ED%99%94-LLM-%EA%B5%AC%EC%B6%95%EC%9D%84-%EC%9C%84%ED%95%9C-%EC%95%84%ED%82%A4%ED%85%8D%EC%B2%98-%EC%A0%84%EB%9E%B5</link>
    <guid>https://my-works-kohl.vercel.app/Resaerch_Prorpsal/%EA%B8%B0%EA%B4%80-%ED%8A%B9%ED%99%94-LLM-%EA%B5%AC%EC%B6%95%EC%9D%84-%EC%9C%84%ED%95%9C-%EC%95%84%ED%82%A4%ED%85%8D%EC%B2%98-%EC%A0%84%EB%9E%B5</guid>
    <description><![CDATA[ 🧐 나의 생각 / 비판 (My Thoughts / Critiques) RAG나, 생성 LLM이나 전부 “하나의 크고 아름다운 모델” 로 해결하려면 안될 것 같다. 이건 마치 99.999%의 보안체계를 구축하는 것과 비슷하다고 생각함. ]]></description>
    <pubDate>Fri, 07 Nov 2025 07:28:06 GMT</pubDate>
  </item><item>
    <title>NoteLLM A Retrievable Large Language Model for Note Recommendation</title>
    <link>https://my-works-kohl.vercel.app/papers/NoteLLM-A-Retrievable-Large-Language-Model-for-Note-Recommendation</link>
    <guid>https://my-works-kohl.vercel.app/papers/NoteLLM-A-Retrievable-Large-Language-Model-for-Note-Recommendation</guid>
    <description><![CDATA[ 🧐 나의 생각 / 비판 (My Thoughts / Critiques) 2024년에 나온 논문이라 그런지 지금은 당연한 내용인 내용 생성 및 추론에 “llm을 사용한다.” 를 주장함 연관된 문서 찾는데 임베딩 방식을 활용한 대조학습 후 추천 모델 연관된 문서 찾을 때 검색 및 추천 방식을 활용 핵심 제안: 대규모 언어 모델(LLM)을 활용한 새로운 item-to-item (I2I) 노트 추천 프레임워크 ‘NoteLLM’ 제안. ]]></description>
    <pubDate>Fri, 07 Nov 2025 05:37:59 GMT</pubDate>
  </item><item>
    <title>TQA - 인간의 감각과 기계의 측정을 잇는 촉감-언어 데이터셋 구축</title>
    <link>https://my-works-kohl.vercel.app/Resaerch_Prorpsal/TQA---%EC%9D%B8%EA%B0%84%EC%9D%98-%EA%B0%90%EA%B0%81%EA%B3%BC-%EA%B8%B0%EA%B3%84%EC%9D%98-%EC%B8%A1%EC%A0%95%EC%9D%84-%EC%9E%87%EB%8A%94-%EC%B4%89%EA%B0%90-%EC%96%B8%EC%96%B4-%EB%8D%B0%EC%9D%B4%ED%84%B0%EC%85%8B-%EA%B5%AC%EC%B6%95</link>
    <guid>https://my-works-kohl.vercel.app/Resaerch_Prorpsal/TQA---%EC%9D%B8%EA%B0%84%EC%9D%98-%EA%B0%90%EA%B0%81%EA%B3%BC-%EA%B8%B0%EA%B3%84%EC%9D%98-%EC%B8%A1%EC%A0%95%EC%9D%84-%EC%9E%87%EB%8A%94-%EC%B4%89%EA%B0%90-%EC%96%B8%EC%96%B4-%EB%8D%B0%EC%9D%B4%ED%84%B0%EC%85%8B-%EA%B5%AC%EC%B6%95</guid>
    <description><![CDATA[ 🧐 나의 생각 / 비판 (My Thoughts / Critiques) RoboVQA를 보고 떠오른 연구 제안서이다. 촉감 시계열과 언어를 실제 데이터셋으로 정렬한 논문이 없다. ]]></description>
    <pubDate>Wed, 29 Oct 2025 08:13:14 GMT</pubDate>
  </item><item>
    <title>언어 매개를 통한 독립적 멀티모달 임베딩의 제로샷 정렬 프레임워크</title>
    <link>https://my-works-kohl.vercel.app/Resaerch_Prorpsal/%EC%96%B8%EC%96%B4-%EB%A7%A4%EA%B0%9C%EB%A5%BC-%ED%86%B5%ED%95%9C-%EB%8F%85%EB%A6%BD%EC%A0%81-%EB%A9%80%ED%8B%B0%EB%AA%A8%EB%8B%AC-%EC%9E%84%EB%B2%A0%EB%94%A9%EC%9D%98-%EC%A0%9C%EB%A1%9C%EC%83%B7-%EC%A0%95%EB%A0%AC-%ED%94%84%EB%A0%88%EC%9E%84%EC%9B%8C%ED%81%AC</link>
    <guid>https://my-works-kohl.vercel.app/Resaerch_Prorpsal/%EC%96%B8%EC%96%B4-%EB%A7%A4%EA%B0%9C%EB%A5%BC-%ED%86%B5%ED%95%9C-%EB%8F%85%EB%A6%BD%EC%A0%81-%EB%A9%80%ED%8B%B0%EB%AA%A8%EB%8B%AC-%EC%9E%84%EB%B2%A0%EB%94%A9%EC%9D%98-%EC%A0%9C%EB%A1%9C%EC%83%B7-%EC%A0%95%EB%A0%AC-%ED%94%84%EB%A0%88%EC%9E%84%EC%9B%8C%ED%81%AC</guid>
    <description><![CDATA[ 🧐 나의 생각 / 비판 (My Thoughts / Critiques) TQA에서 더 나아간 멀티모달 정렬을 하고 싶음 이 연구제안이 이루어지면 사실 어느 정도의 촉감에 대한 정복이 가능 요약 ‘전문가 모델 연합’ 프레임워크 제안: 대규모 재학습 없이, 사전 학습된 독립 모델(CLIP-시각, BERT-텍스트)과 텍스트에 정렬된 신규 촉감 모델(TQA)을 모듈형으로 결합. ]]></description>
    <pubDate>Wed, 29 Oct 2025 08:13:14 GMT</pubDate>
  </item><item>
    <title>A TIME SERIES IS WORTH 64 WORDS LONG-TERM FORECASTING WITH TRANSFORMERS</title>
    <link>https://my-works-kohl.vercel.app/papers/A-TIME-SERIES-IS-WORTH-64-WORDS-LONG-TERM-FORECASTING-WITH-TRANSFORMERS</link>
    <guid>https://my-works-kohl.vercel.app/papers/A-TIME-SERIES-IS-WORTH-64-WORDS-LONG-TERM-FORECASTING-WITH-TRANSFORMERS</guid>
    <description><![CDATA[ 🧐 나의 생각 / 비판 (My Thoughts / Critiques) 단변량보단 다변량 데이터를 처리하는데 더 중점을 두는 모델이긴 하다. ViT 에서 아이디어를 따와서 시계열에 적용해본게 좋은 시도였던 것 같다. 어떤 분야던 분할 벡터 계산은 필수인가보다. ]]></description>
    <pubDate>Wed, 29 Oct 2025 08:13:14 GMT</pubDate>
  </item><item>
    <title>A Touch, Vision, and Language Dataset for Multimodal Alignment</title>
    <link>https://my-works-kohl.vercel.app/papers/A-Touch,-Vision,-and-Language-Dataset-for-Multimodal-Alignment</link>
    <guid>https://my-works-kohl.vercel.app/papers/A-Touch,-Vision,-and-Language-Dataset-for-Multimodal-Alignment</guid>
    <description><![CDATA[ 🧐 나의 생각 / 비판 (My Thoughts / Critiques) 촉각-시각-언어 임베딩과 그에 따른 대표적인 하위 스트림을 붙인 논문 아키텍쳐 구조를 따라하기 아주 모범적임 간략한 모델 구조 자세한 모델 구조 1. ]]></description>
    <pubDate>Wed, 29 Oct 2025 08:13:14 GMT</pubDate>
  </item><item>
    <title>AMAQA A Metadata-based QA Dataset for RAG Systems</title>
    <link>https://my-works-kohl.vercel.app/papers/AMAQA-A-Metadata-based-QA-Dataset-for-RAG-Systems</link>
    <guid>https://my-works-kohl.vercel.app/papers/AMAQA-A-Metadata-based-QA-Dataset-for-RAG-Systems</guid>
    <description><![CDATA[ 🧐 나의 생각 / 비판 (My Thoughts / Critiques) RAG 검색 품질을 극대화하기 위해, 시스템의 연산 비용이 허용하는 한도 내에서 LLM 기반 시맨틱 메타데이터를 청킹에 통합하는 것이 효과적이다. ]]></description>
    <pubDate>Wed, 29 Oct 2025 08:13:14 GMT</pubDate>
  </item><item>
    <title>Chronos Learning the Language of Time Series</title>
    <link>https://my-works-kohl.vercel.app/papers/Chronos-Learning-the-Language-of-Time-Series</link>
    <guid>https://my-works-kohl.vercel.app/papers/Chronos-Learning-the-Language-of-Time-Series</guid>
    <description><![CDATA[ 🧐 나의 생각 / 비판 (My Thoughts / Critiques) 시계열 FM도 LLM처럼 제로샷으로 잘 되었으면 좋겠다. 하지만 잘 안되던데, 아직 시계열의 어떤 핵심 구조를 건들이지 못한것 같다. ]]></description>
    <pubDate>Wed, 29 Oct 2025 08:13:14 GMT</pubDate>
  </item><item>
    <title>CrossCLR Cross-modal Contrastive Learning For Multi-modal Video Representations</title>
    <link>https://my-works-kohl.vercel.app/papers/CrossCLR-Cross-modal-Contrastive-Learning-For-Multi-modal-Video-Representations</link>
    <guid>https://my-works-kohl.vercel.app/papers/CrossCLR-Cross-modal-Contrastive-Learning-For-Multi-modal-Video-Representations</guid>
    <description><![CDATA[ 🧐 나의 생각 / 비판 (My Thoughts / Critiques) 1. ]]></description>
    <pubDate>Wed, 29 Oct 2025 08:13:14 GMT</pubDate>
  </item>
    </channel>
  </rss>