Một cô bé 14 tuổi từng ăn cắp một chiếc xe đạp trẻ em, nhưng nhiều năm sau một phần mềm máy tính của cơ quan tư pháp Hoa Kỳ vẫn buộc cô là một tên tội phạm. Giới chuyên gia đã gióng lên hồi chuông báo động vì trí tuệ nhân tạo đang được sử dụng để phán quyết về số phận của một con người ngày càng nhiều.


Steven Spielberg là người có linh cảm nhạy bén, thường phát hiện được những câu chuyện hay, thú vị. Năm 2002 ông đã làm bộ phim “Minority Report”, kể về một gã đàn ông làm việc trong cơ quan tiền tội phạm, ở đây có nhiều người có năng lực tiên đoán những kẻ có thể gây tội ác trong tương lai. Nhân vật chính trong phim đã phát hiện tên tội phạm tiềm năng kịp thời, y đã bị tóm trước khi có hành vi phạm tội. Trong thực tế, ở ngoài đời thực, truyện trong phim Hollywood đã được áp dụng từ lâu rồi: Khoảng mươi năm nay cơ quan tư pháp ở Hoa Kỳ đã áp dụng kỹ thuật tiên đoán để ngăn tội ác không diễn ra trong tương lai. Phần mềm Compas giúp cơ quan tư pháp tạo hồ sơ tội phạm và xem xét liệu trong tương lai tên tội phạm đó có gây ra tội ác mới hay không.

Từ nhiều năm nay trí tuệ nhân tạo đã can dự vào nhiều lĩnh vực trong cuộc sống hàng ngày. Nó quyết định về độ tin cậy đối với vay tín dụng, về đầu tư cổ phiếu, thậm chí cả về chuyện mua gì tặng nhân dịp tết. Sức mạnh của trí tuệ nhân tạo tăng lên rất nhanh: máy tính được sử dụng ngày càng nhiều vào việc xem xét các vấn đề có thể có tác động quyết định đến cuộc đời mai sau của con người ta như thế nào. Thí dụ nó khuyến nghị về việc có nên đăng ký tham gia phỏng vấn xin việc hay không hay ai đó có khả năng theo học đại học không. Vấn đề cần hỏi là dùng máy tính để phán xét những vấn đề như thế này có phải là một ý tưởng tốt đẹp hay không?

Các nhà khoa học và nhiều tổ chức ở Đức đang nghên cứu về vấn đề này. “Chúng ta phải quy trách nhiệm cho trí tuệ nhân tạo (AI) và đặt những câu hỏi về nó“, nhà nghiên cứu Katharina Zweig, tại Đại học Kỹ thuật Kaiserslautern nói. Bà quan sát ảnh hưởng của phần mềm từ góc độ đặc biệt: đó là tin học xã hội. Cùng với các chuyên gia tâm lý học, các luật sư và các nhà khoa học xã hội khác, bà tập trung nghiên cứu máy tính có thể giúp hiểu xã hội đầy phức tạp này một cách đầy đủ hơn không. Kết quả cho thấy, phần mềm Compas không giúp ích gì nhiều.

Thuật toán với những định kiến 

Máy tính có thể xử lý một số việc tốt hơn nhiều so với con người: chúng có thể lưu, phân tích và phân loại dữ liệu với một khối lượng lớn mà con người khó có thể kham nổi. Máy tính còn có ưu điểm là không có cảm giác bị tổn thương, cũng không biết bực tức. 

Phần mềm Compas của hãng Northpointe được cho là sẽ giúp hệ thống tư pháp tránh được định kiến trước khi kết án. Đó là lý do vì sao mọi tính toán đều dựa trên cơ sở truy vấn dữ liệu hết sức trung lập. Thí dụ khi đánh giá lý lịch của tội phạm AI có khi còn xem xét cả tiền án nếu có của những người họ hàng gần. Ngân hàng dữ liệu cũng tự động bị truy vấn về các dữ liệu liên quan đến lạm dụng ma túy hay rượu  bia đối với những người trong gia đình, liệu có nợ nần hay không, có hay nhảy việc và thay đổi chỗ ở hay không. 

Bên cạnh đó phần mềm còn nêu 137 câu hỏi đối với đương sự như: trong tình huống như thế nào thì đương sự cho rằng việc ăn cắp là đúng? Tình trạng hôn nhân của bố mẹ đương sự ? Trên cơ sở các câu trả lời phần mềm lập dự báo về tội phạm và xã hội, nhằm cung cấp cho các thẩm phán thông tin cơ bản  về nguy cơ tái phạm của tội phạm. Các yếu tố như mầu da hay nguồn gốc xuất  thân không được đề cập  – Compas giúp ra phán quyết hợp lý và không phân biệt mầu da. 

Tuy nhiên điều ngược lại đã xảy ra, theo nghiên cứu của Propublica, một tổ chức của Hoa Kỳ về điều tra của báo chí. Sau đây là một ví dụ, cô Brisha Borden, năm nay 18 tuổi, năm 2014 đã ăn cắp một xe đạp trẻ em trên đường phố có giá 80 đôla. Compas đánh giá cô ta 8 điểm –  và cho rằng cô này có nhiều khả năng tái phạm. Cũng trong năm đó, môt người đàn ông 41 tuổi, tên là Vernon Prater đã ăn cắp trong cửa hàng một thiết bị điện có giá 87 đôla. Prater từng bị tù 5 năm vì tội cướp có vũ trang và có liên quan đến một số tội phạm khác. Tuy nhiên gã này lại chỉ bị Compas đánh giá 3 điểm. 

Tại sao Compas lại có sự đánh giá khác nhau đến như vậy đối với hai kẻ phạm tội coi như tương đương nhau? Brisha Borden thì da đen còn Vernon Prater da trắng. Trong năm 2016 Propublica đã kiểm tra hàng nghìn trường hợp khác và so sánh với những gì đã diễn ra trong thực tế. Một điều nổi bật là Compas thường dự đoán những người phạm tội da đen sẽ tái phạm tuy nhiên trong thực tế dự báo đó lại thường không đúng.  

Zweig giải thích “Có giả định rằng một cái máy bao giờ cũng ra quyết định hợp lý hơn và không có định kiến như con người”. Nhiều người cho rằng trí tuệ nhân tạo có một loại ma lực, có sức hiểu biết hơn hẳn bộ óc con người  – và do đó về cơ bản có sự đánh giá hơn hẳn khả năng của con người. Thậm chí còn có cả một thuật ngữ về điều này: chủ nghĩa xô vanh kỹ trị (Technochauvinismus). 

Nhưng nghiên cứu đã chỉ ra rằng: Máy tính cũng hoàn toàn không ít định kiến hơn con người. Các hệ thống trí tuệ nhân tạo tuy xử lý các vấn đề thông qua tự học từ các tập dữ liệu. Nhưng con người lập trình cho máy tính, con người quyết định dùng tập dữ liệu nào làm tài liệu học tập. Do những người hoạt động trong lĩnh vực tin học và công nghệ chủ yếu da trắng và là nam giới cho nên AI thường “tư duy” như một người đàn ông da trắng. 

Tuy nhiên Compas không hỏi về mầu da – vậy tại sao hệ thống lại biết Brisha Borden là người da đen? “Nghiêm túc mà nói thì Compas thật sự không biết, nhưng mầu da của cô bé này được thể hiện ở nhiều đặc tính khác mà Compas đã từng thu thập”, Dietmar Hübner nói. Vị giáo sư triết học thuộc Đại học Hannover này cùng với các nhà tin học và luật học nghiên cứu về phân biệt đối xử thông qua máy tính. Hệ thống thu hút nhiều yếu tố để đánh giá: tình hình nhà ở, học vấn, tình trạng gia đình. “Những yếu tố này quan trọng đối với dự báo về tội phạm. Nhưng ở Hoa Kỳ những yếu tố này cũng liên quan nhiều đến mầu da – và nhiều khi hậu quả xã hội của nó là phân biệt chủng tộc và sự tách biệt.”

Nói một cách khác: thực tế xã hội cho thấy, khi nói đến người da đen ở Hoa Kỳ thường có xu hướng nghĩ ngay tới những người có những đặc điểm tiêu cực, xấu xa. “Thuật toán không làm mất đi những định kiến này, chúng thậm chí còn bảo tồn và duy trì các định kiến”, Hübner nói. “Thêm vào đó là có tình trạng người Mỹ gốc Phi thường bị theo dõi, giám sát nhiều hơn và dễ dàng bị bắt giữ hơn so với người da trắng”. Điều này làm cho dữ liệu bị biến dạng, mà các hệ thống tựa như Compas lại học từ các dữ liệu này – do đó các hệ thống này lại tiếp tục đẻ ra các dự báo sai lệch, méo mó.

Cho đến nay Northpointe, hãng chế tạo ra Compas chưa đưa ra được bằng chứng rằng phần mềm này ổn. Nhà nghiên cứu người Đức, bà Zweig đã làm công việc này: “Về các loại tội phạm nghiêm trọng, Compas đánh giá sai tới 75%”. Điều này có nghĩa là, trong số những kẻ bị thuật toán xếp vào loại nhóm có nguy cơ cao phạm tội nghiêm trọng, thì chỉ có một phần tư số người thực sự phạm loại tội này. Với tỷ lệ này thì độ chính xác của phần mềm hầu như không chính xác hơn dự đoán của những người được tuyển chọn ngẫu nhiên và có hiểu biết về thống kê tái phạm.  

Cạm bẫy của lập trình

Điều này làm nổi bật lên những vấn đề cơ bản, có tính pháp lý: Làm sao để thuật toán phục vụ nhân loại được tốt hơn?

“Điều quan trọng là, người sử dụng phải hiểu rõ về các hệ thống“, Kathrin Hartmann nói. Nhà khoa học chính trị thuộc Đại học Kỹ thuật Kaiserslautern đi đến Quận Eau Claire County thuộc địa phận Wisconsin (Hoa Kỳ), đây là nơi cơ quan tư pháp đã sử dụng Compas từ mười năm nay. 

Nhà khoa học này đã phỏng vấn các thẩm phán, luật sư và các nhà quản lý. “Ấn tượng của tôi là, nhiều người không nhận thức được rằng, Compas chỉ là một phương tiện hỗ trợ để ra quyết định”, bà nói. 

Vì về cơ bản phần mềm được thiết kế để có được một dự báo xã hội về bị can. Các thẩm phán cũng như nhân viên tư pháp thuộc các vị trí khác nhau thuộc ngành tư pháp có thể sử dụng dự báo này như một thiết chế để ra quyết định. Ví dụ nếu khả năng rủi ro cao, thẩm phán sẽ không tán thành quyết định cho bị cáo tạm tha mà sẽ thiên về quyết định tống giam  để phòng ngừa.   

Tuy nhiên theo Hartmann thì có nguy cơ các thẩm phán không coi các dự báo này là một lời khuyên mà coi đây là một bản án được chuẩn bị sẵn. Không có các cuộc tập huấn thường xuyên hay định kỳ. 

Tổ chức AlgorithmWatch có thông tin về các hệ thống ra quyết định trên cơ sở thuật toán cũng yêu cầu tăng cường tính minh bạch. “Các doanh nghiệp tư nhân thì muốn bán phần mềm của họ và các tổ chức nhà nước thì sử dụng chúng mà không có bất kỳ một sự can thiệp nào“, người phát ngôn Matthias Spielkamp nói. Điều này chứa đựng nhiều nguy cơ to lớn – và xét cho cùng thì là một sự mê hoặc. Cần có các quá trình dân chủ: “Chúng ta phải quyết định dành bao nhiêu tự do của chúng ta cho các hệ thống”. 

Trong nghiên cứu của mình Katharina Zweig cũng gặp phải một vấn đề bất ngờ, “khi chúng ta muốn đánh giá các quyết định tự động, thì phải biết rõ về các tiêu chuẩn đối với con người”. Ai chê trách thuật toán không khách quan, thì cũng phải kiểm tra các quyết định của con người. 

Thí dụ một nghiên cứu ở Israel cho thấy: sau một bữa ăn trưa các thẩm phán tuyên án thường nhẹ nhàng hơn so với trước đó. “Có lẽ đây là thời điểm tốt hơn để nêu câu hỏi, quyết định của con người thực ra tốt đến mức độ nào? Và chúng ta có thể làm thế nào để các quyết định đó được tốt hơn?” Có lẽ máy móc sẽ là tấm gương tốt đẹp hơn cho chúng ta.

Xuân Hoài dịch / Tạp Chí Tia Sáng


Nguồn: https://www.welt.de/wissenschaft/plus219024580/Kuenstliche-Intelligenz-Dieser-Algorithmus-entscheidet-ueber-Freiheit-oder-Knast.html