<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>Fairness on Tech News Feed</title>
    <link>https://news.dhphong.com/tags/fairness/</link>
    <description>Recent content in Fairness on Tech News Feed</description>
    <generator>Hugo -- 0.131.0</generator>
    <language>vi</language>
    <lastBuildDate>Mon, 13 Apr 2026 07:49:26 +0700</lastBuildDate>
    <atom:link href="https://news.dhphong.com/tags/fairness/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>[The Morning Paper] Bias in word embeddings</title>
      <link>https://news.dhphong.com/posts/2026-04-13-bias-in-word-embeddings/</link>
      <pubDate>Mon, 13 Apr 2026 07:49:26 +0700</pubDate>
      <guid>https://news.dhphong.com/posts/2026-04-13-bias-in-word-embeddings/</guid>
      <description>Nguồn: The Morning Paper
Tóm tắt Bài viết phân tích vấn đề thiên kiến (bias) trong các mô hình word embedding, dựa trên nghiên cứu học thuật về cách các biểu diễn từ ngữ trong không gian vector phản ánh và khuếch đại các định kiến xã hội có trong dữ liệu huấn luyện. Các mô hình như Word2Vec và GloVe được huấn luyện trên lượng lớn văn bản từ internet, nơi chứa đựng nhiều thiên kiến về giới tính, chủng tộc và các yếu tố nhân khẩu học khác.</description>
    </item>
  </channel>
</rss>
