語言分析與資料科學
  • 本書規劃
  • PART I:基礎知識
    • 導論
    • 語言學
      • 語言的實證研究方法
    • 數學與統計
      • 統計
        • 機率與機率分佈
          • 推論統計
        • 迴歸模型
      • 線性代數
    • 自然語言處理
      • 語料庫
    • 機器學習
      • kNN
      • Probabilistic learning using Naive Bayes
      • 決策樹 Decision Trees
      • 支持向量機 Support Vector Machines
      • 迴歸分析 Regression models
      • 神經網路與深度學習 Neural Network and Deep Learning
      • 關聯規則挖掘 Association Rules
      • k-means 分群 Clusterings
      • 社會網路分析
    • 資料科學的 OSEMN 模式
  • PART II: 文本分析:資料處理、表徵與語意計算
    • 文本分析是什麼
      • 程式處理架構
    • 文本前處理
      • 文本收集
      • 文本清理
      • 自動分詞與詞類標記
      • 文本標記
    • 文本數據探索性分析
    • 文本語意與統計
      • 語意表徵
      • 文本訊息視覺化
      • 文本相似與關聯
    • 文本知識抽取
  • PART III:文本分析:模型應用與專案
    • 文本迴歸預測
    • 文本分類
      • 情緒分析
      • 垃圾訊息偵測
    • 文本自動生成
      • 自動摘要
    • 文本聚類
    • 主題模型
    • 立場、意圖與價值
    • 個人文體風格
    • 文本真實性
      • 重複文本偵測
    • 資料科學報告與部署
  • 附錄
    • R 存活指令
    • Python 存活指令
    • Git and Github 入手
    • Linux 存活指令
    • 正則表示法
    • 參考書目
Powered by GitBook
On this page
  • 文本蒐集
  • 基本的文本清理步驟
  • 中文文本的特殊性

Was this helpful?

  1. PART II: 文本分析:資料處理、表徵與語意計算

文本前處理

  • 目的:蒐集擷取 (collecting)、清理 (cleaning) 與調整 (reshaping) 文本訊息,方便後續處理分析。

  • 注意:有些作法會把表徵 (represention) 的處理放到這個部分,我們則放在文本語意的章節再談。

Text does not follow any regular pattern amenable to being analysed using standard statistical methods. How do we get text ready for analysis?

  • A large amount of available textual data are unstructured, massive, and of tremendous variety.

  • We need adjustments to these texts to make it more analyzable.

  • You can use R functions/Linux command line tools for manipulating text.

文本蒐集

來源

  • 網路

  • local texts

  • 感測器 (透過 Speech-to-Text API)

基本的文本清理步驟

不一定照此順序

  1. 大小寫轉換

  2. 標點符號移除

  3. 數字移除

  4. URLs 移除

  5. 表情符號

  6. 停用詞移除 (stop words removal)

  7. 詞目化 (lemmatization)、詞幹化 (stemmming)

  8. 分詞 (tokenization)

  9. 詞類自動標記 (POS tagging)

中文文本的特殊性

  • 分詞(斷詞)問題

字與詞的不同

jiebaR, Rwordseg

進階:XML 文件處理參見 附錄

Previous程式處理架構Next文本收集

Last updated 5 years ago

Was this helpful?