<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>Fine-Tuning on Tech News Feed</title>
    <link>https://news.dhphong.com/tags/fine-tuning/</link>
    <description>Recent content in Fine-Tuning on Tech News Feed</description>
    <generator>Hugo -- 0.131.0</generator>
    <language>vi</language>
    <lastBuildDate>Fri, 17 Apr 2026 00:02:38 +0700</lastBuildDate>
    <atom:link href="https://news.dhphong.com/tags/fine-tuning/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>[Google Engineering Blog] MaxText Expands Post-Training Capabilities: Introducing SFT and RL on Single-Host TPUs</title>
      <link>https://news.dhphong.com/posts/2026-04-17-maxtext-sft-rl-single-host-tpu/</link>
      <pubDate>Fri, 17 Apr 2026 00:02:38 +0700</pubDate>
      <guid>https://news.dhphong.com/posts/2026-04-17-maxtext-sft-rl-single-host-tpu/</guid>
      <description>Nguồn: Google Engineering Blog
Tóm tắt Google thông báo MaxText, framework training LLM của mình, giờ đây hỗ trợ Supervised Fine-Tuning (SFT) và Reinforcement Learning (RL) trên cấu hình single-host TPU (v5p-8 và v6e-8). Đây là bước tiến quan trọng vì trước đây post-training thường yêu cầu cluster nhiều host, làm tăng chi phí và phức tạp infrastructure đáng kể.
SFT trong MaxText tích hợp native với Hugging Face datasets, hỗ trợ load checkpoint từ cả MaxText lẫn Hugging Face (như Gemma 3), và được tối ưu bằng thư viện Tunix — một JAX-based library thiết kế riêng cho post-training efficiency.</description>
    </item>
  </channel>
</rss>
