Named Entity Recognition – Nhận diện thực thể trong câu khi xử lý ngôn ngữ tự nhiên

Chào tuần mới các member Mì thân yêu, hôm nay chúng ta sẽ cùng đi tìm hiểu về Named Entity Recognition – Nhận diện thực thể trong câu khi xử lý ngôn ngữ tự nhiên nhé. Món này hay gọi là NER đó các mem.

Các bài về NLP – xử lý ngôn ngữ tự nhiên thường trừu tượng và khó hiểu hơn các bài Computer Vision rất nhiều nên mình sẽ đi thật từ từ và mọi thứ sẽ được diễn đạt ở dạng Mì ăn liền để bạn nào cũng có thể hiểu được.

Mình có mấy bài về NLP, bạn nào chưa đọc thì đọc lại tại đây nhé.

Let’s go thôi các mem!

Phần 1 – Named Entity Recognition (NER) là cái chi chi?

Ok, thì vừa nói ở trên đó, chúng ta học về NER – nhận diện các thực thể trong văn bản.

Vẫn trừu tượng vãi đúng không? Mình sẽ có ví dụ ngay, tóm lại bài hôm nay chúng ta làm bài toán như sau:

  • Ví dụ 1: Đầu vào là câu văn bản, ví dụ “Hôm nay Peter đi Mỹ”. Model phải đưa ra output là : Peter – Tên riêng, Mỹ – Địa điểm.
  • Ví dụ 2: Đầu vào “Số điện thoại công ty Apple là 091345678”. Model sẽ phải hiện ra: Apple – Tên công ty, 091345678 – Số điện thoại.

Vậy đó, NER là trích từ câu văn ra các thực thể có tên (nghĩa là các thực thể ấy được ta đặt tên rồi ấy). Ví dụ như trên là thực thể Tên riêng, thực tể Địa điểm, thực thể số điện thoại….

Xem thêm cái hình để biết NER là gì này, các thực thể được nhận ra khi đưa đoạn văn bản vào và bôi xanh, bôi đỏ đấy:

Named Entity Recognition
Nguồn: Tại đây

Lờ mờ hiểu mục đích bài hôm nay rồi chứ các bạn. Đi tiếp nhé!

Phần 2 – Phương pháp triển khai bài toán

Về vấn đề input, output

Như vậy để làm bài này ta sẽ thực hiện nhận một chuỗi văn bản đầu vào X gồm n từ đánh số từ 1 đến n. Chúng ta sẽ thực hiện predict ra vector y cũng có n phần tử là nhãn của các từ trong câu X.

Các nhãn có cấu trúc: P-Name. Trong đó

  • P có thể là B (bắt đầu), I (bên trong) và E (kết thúc) để miêu tả vị trí bắt đầu, bên trong và kết thúc của thực thể trong câu.
  • Name là tên thực tể. Ví dụ: org – tổ chức, per – tên riêng….

Ví dụ về việc gán nhãn cho các từ như sau:

Nhìn vào đó ta thấy:

  • John được gán B-per: Nghĩa là bắt đầu một tên riêng.
  • Michael là I-per, là phần giữa của một tên riêng.
  • Wick thì là E-per , kết thúc của tên riêng.
  • Tương tự cho United Kingdom là một thực thể loc – Location
  • like, very, much là các từ không cần nhận diện nên để là O – Outside.

Phần này bạn nào còn chưa hiểu có thể post lên Group trao đổi, chia sẻ: https://facebook.com/groups/miaigroup để giao lưu thêm nhé.

Về vấn đề mạng Deep learning

Nói đến Input là văn bản là chúng ta nghĩ ngay đến LSTM rồi. Vâng, bài này chúng ta sử dụng LSTM và cụ thể là Bidirection LSTM để xây dựng mạng Neural.

Nếu các bạn cần tìm hiểu sâu hơn về LSTM thì đọc link này nhé, nó sâu về lý thuyết chút.

LSTM
Nguồn: Tại đây

Sau khi trích xuất được vector đặc trưng cho từng từ trong câu, chúng ta sẽ sử dụng thuật toán Conditional Random Fields (CRF) để predict từ đó có là Named Entity hay không.

Lý do phải sử dụng CRF là vì :

  • Việc predict nhãn từng từ nhiều khi không mang lại hiệu quả cao. Ví dụ nếu xét riêng từng từ thì từ Apple trong câu “I eat Apple” sẽ giống như từ Apple trong câu “Apple makes iPhone”. Trong khi ta biết rõ là khác nhau 😀
  • CRF có cơ chế sử dụng ngữ cảnh (nhãn của các từ trước đó) vào việc predict nhãn của từ hiện tại nên nhãn của của 1 từ sẽ phụ thuộc vào từ đó nằm trong câu nào, điều đó hợp lý hơn.

Link dành cho bạn nào muốn tìm hiểu sâu hơn về CRF: tại đây.

Đó, lý thuyết cho bài này chỉ có thể, giờ ta tiến hành xử lý từng bước nào.

Phần 3 – Build và train model Named Entity Recognition

Dữ liệu cho train model

Bài toán này có thể sử dụng bất kì dữ liệu nào đã gán nhãn để train nhé, các bạn tuỳ vào bài toán của mình để chọn dữ liệu cho phù hợp. Ở đây để nhanh gọn mình sử dụng dữ liệu trên Kaggle, các bạn download tại đây. Mình cũng để trên github luôn cho các bạn cần tải nhanh.

Dữ liệu này đã được gán nhãn như tại phần 2 với các loại Entity gồm:

Đọc và xử lý dữ liệu

Để load dữ liệu, chúng ta sử dụng thư viện Pandas và đọc file ‘ner_dataset.csv’.

Trong khi đọc chúng ta tiến hành fill các ô bị Null luôn bằng lệnh df.fillna.

Dữ liệu đọc được sẽ được ghi thành từng dòng, mỗi dòng một từ kèm theo POS (Part of Speech) và nhãn Tag tương ứng theo đúng quy tắc tại Phần 2.

Named Entity Recognition (NER) - Nhận diện thực thể trong câu khi xử lý ngôn ngữ tự nhiên

Ở đây ta bỏ qua cột POS nhé. Quan tâm 3 cột còn lại thôi.

Tiếp theo ta sẽ group dataframe này theo cột Sentences # để nối các từ trong từng dòng riêng rẽ về một câu:

Đoạn chương trình trên mình viết riêng ra 1 class riêng (file cls_sentences.py) để tránh rối chương trình chính nhé.

Rồi sau bước trên ta đã có danh sách các câu lưu trong biến sentences, mỗi item sẽ có 3 giá trị là [word , pos, tag].

Encoding dữ liệu

Bây giờ nếu như để dữ liệu ở dạng text thông thường thì chắc chắn model sẽ không thể xử lý được, chúng ta tiến ành xây dựng vocab và encode thành các vector số.

Đầu tiên là bước xây dựng vocab và 4 dictionary để map word thành index, tag thành index và ngược lại:

Ở đây các bạn chú ý một điểm là tại sao lại phải thêm 2 từ đặc biệt là Unknown và Padding? Lý do như sau:

  • Thêm từ Unknown để deal với các từ không có trong vocab khi predict, nếu như gặp các từ không biết thì quy hết về từ Unknow này.
  • Thêm từ Padding, chính là từ ta sẽ sử dụng để chền thêm vào cuối các câu ngắn hơn 1 length cố định do chúng ta quy định. Chắc bạn vẫn thắc mắc sao lại phải làm thế? Đơn giản vì khi feed vào vào các model ta luôn cần length cố định trong khi các câu thì câu dài câu ngắn khác nhau -> cần phải padding cho đều nhau mới đưa vào mạng được. Ta hay chọn độ dài câu dài nhất để padding các câu ngắn hơn về độ dài đó.

Sau khi đã tạo được các dict, ta tiến hành map các câu văn bản và các tag về index:

Sau bước này các câu và các vector tag của câu sẽ có dạng:

Và đê tiến hành train, ta cần làm thêm một bước là chuyển các tag index về dạng One-hot

Và cuối cùng là chia train, test:

Sau bước này thì dữ liệu đã sẵn sàng, ta sang bước tiếp nhé

Build và train model

Model ở đây khá đơn giản, chỉ gồm các lớp:

  • Embedding: Để embed các câu văn bản. Cụ thể là biến các word index thành các vector n chiều cố định.
  • Bidirection LSTM với return_sequence=True
  • TimeDistributed Layer để lấy ra vector Dense cho từng từ lại mỗi step.
  • CRF ở trên cùng

Model này sử dụng loss và accuracy của lớp CRF để fine tune model.

Trong bài mình có dùng một số thủ thuật dể lưu lại file data cũng như là check xem đã train hay chưa để thực hiện quá trình train, các bạn đọc source để hiểu rõ hơn nhé.

Ở đây mình chỉ nêu phần chính là train model kèm với một checkpoint để lưu lại weights nhé:

Phần 4 – Kiêm thử model Named Entity Recognition

Sau khi train xong ta thử Eval trên tập test xem kết quả như nào:

Ở đây F1- Score là 83.1%, cũng khá ổn rồi.

Hoặc ta cũng có thể test với 1 câu random trong tập test để kiểm tra kết quả:

Kết quả in ra màn hình rất ổn, khá đúng với true label:

Chú ý các bạn sẽ thấy từ February 15 dã được nhận đúng là time (B-tim) và Barcelone là B-geo, nghĩa là Geographical Entity.

Toàn bộ source và data các bạn có thể tải tại github của mình tại đây nhé!

Okie, như vậy mình đã guide các bạn cách tự train một model NER – Named Entity Recognition chạy được và ổn. Nếu còn vướng gì các bạn cứ post lên Group trao đổi, chia sẻ: https://facebook.com/groups/miaigroup để cùng giao lưu nhé.

Hẹn gặp lại các bạn trong các bài tiếp theo!

Chúc các bạn thành công!

Fanpage: http://facebook.com/miaiblog
Group trao đổi, chia sẻ: https://www.facebook.com/groups/miaigroup
Website: https://miai.vn
Youtube: http://bit.ly/miaiyoutube

Cảm ơn bài tham khảo tuyệt vời tại đây.

Nguyễn Chiến Thắng

Một người đam mê những điều mới mẻ và công nghệ hiện đại. Uớc mơ cháy bỏng dùng AI, ML để làm cho cuộc sống tốt đẹp hơn! Liên hệ: thangnch@gmail.com hoặc facebook.com/thangnch

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *