Cuốn sách lý giải những huyễn tưởng về khả năng của máy tính


Cuốn sách “Huyễn tưởng về trí tuệ nhân tạo” của tác giả Gary Smith lý giải những khác biệt về trí tuệ nhân tạo và đưa ra một góc nhìn khác trước sự tin tưởng tuyệt đối vào AI.

Chúng ta đang sống trong một giai đoạn đáng kinh ngạc của lịch sử. Đó là thời đại của những bộ nhớ hoàn hảo và những khả năng siêu phàm của máy tính. “Trí tuệ nhân tạo” (AI – Artificial Intelligence) là một trong những từ khóa được quan tâm nhất. Hiện nay, nhờ có AI, chúng ta có thể làm những việc mà trước nay chưa thể làm và không hề nghĩ rằng mình có thể làm được.

Tuy nhiên, đi cùng với khả năng không thể bàn cãi của AI là những huyễn tưởng và lo sợ cho tương lai của nhân loại. Mối nguy hiểm thực sự không phải là máy tính thông minh hơn chúng ta, mà là chúng ta nghĩ rằng máy tính thông minh hơn mình, và do đó tin tưởng để máy tính thay mình đưa ra quyết định quan trọng, vì máy tính hoàn toàn có thể mắc những sai lầm trầm trọng, khi cách chúng xử lý dữ liệu không giống cách con người tư duy. 

Cuốn sách “Huyễn tưởng về trí tuệ nhân tạo” của tác giả Gary Smith đã giải thích cặn kẽ, gỡ giải hiểu lầm, xóa tan huyễn tưởng ấy. 

Cuốn sách lý giải những huyền tưởng về khả năng của máy tính - Ảnh 1.
Cuốn sách “Huyễn tưởng về trí tuệ nhân tạo” của tác giả Gary Smith

Huyễn tưởng về trí tuệ nhân tạo được chia thành 12 chương, bao gồm nhiều dẫn chứng thực tế từ lịch sử như cuộc bầu cử tổng thống Mỹ năm 2008, AI Watson của IBM và nhiều dự án trí tuệ nhân tạo nổi tiếng khác.

Cuốn sách với mục đích làm rõ cách trí tuệ nhân tạo xử lý thông tin, cho kết quả cuối cùng và chỉ ra sự khác biệt giữa AI (Artificial Intelligence – Trí tuệ nhân tạo) và bộ não con người, từ đó cho độc giả thấy những rủi ro của việc quá tin tưởng vào kết quả của máy tính.

Trong 4 chương đầu, tác giả đã lấy rất nhiều ví dụ thực tế để giải thích một cách dễ hiểu cách thức trí tuệ nhân tạo hoạt động và cách chúng đưa ra kết quả cuối cùng. Tác giả khẳng định robot đã vượt xa con người trong các nhiệm vụ đơn điệu lặp đi lặp lại, chúng có bộ nhớ tốt hơn, thực hiện các phép tính chính xác hơn và không biết mệt mỏi. 

Tuy nhiên trí tuệ nhân tạo không được lập trình để mô phỏng bộ não con người và trí tuệ nhân tạo không thể tư duy, lập luận và loại suy. Từ đó, tác giả khẳng định cho đến giờ máy tính có trí thông minh bao quát đủ để cạnh tranh với con người chưa tồn tại. 

Trong hai chương tiếp theo, bằng việc nhắc tới “Khai phá Dữ liệu”, một sự thật được chứng minh là việc khai phá Dữ liệu dù thỉnh thoảng sẽ có một khám phá tri thức thực sự, với số lượng các biến giải thích được xem xét càng lớn thì càng có nhiều khả năng một mối quan hệ được khám phá chỉ là trùng hợp ngẫu nhiên, có tính tạm thời. 

Trong các chương còn lại của cuốn sách, tác giả đã đưa ra nhiều mô hình tính toán trong nhiều lĩnh vực như tài chính, chính trị, kinh tế… để chứng minh rằng bằng chứng thống kê là không đủ để phân biệt giữa kiến thức thật và giả. Máy tính không thể đánh giá chính xác sự tương quan đó là ngẫu nhiên hay thực sự có ý nghĩa. Công việc đó chỉ dành cho trí tuệ của con người. 

Kết lại, trí tuệ của con người hoạt động khác biệt so với trí tuệ nhân tạo, bởi vậy không thể nói trí tuệ nhân tạo là thông minh. Robot vượt trội về bộ nhớ, tính chính xác và sức bền nhưng chúng vẫn tồn tại nhiều khuyết điểm: không biết tư duy, không thể loại suy và không thể phân biệt được dữ liệu tốt – xấu, vô nghĩa – có nghĩa. 

Vì thế con người cần tới máy tính để xử lý lượng thông tin lớn, nhưng cũng cần chính trí tuệ của con người để đưa ra những đánh giá cuối cùng về kết quả mà máy tính trả về. 

Gary Smith là giáo sư trường Cao đẳng Pomona, Mỹ. Ông tham gia rất nhiều dự án nghiên cứu vạch ra sự đáng ngờ trong việc sử dụng dữ liệu trong phân tích thống kê.

Ông là tác giả của 8 cuốn sách giáo khoa, 7 cuốn sách thương mại, gần 100 bài báo học thuật và 7 chương trình phần mềm về kinh tế, tài chính và thống kê. Ngoài việc giảng dạy tại trường Cao đẳng Pomona, ông còn là chuyên gia phân tích và tư vấn kinh tế.

Các cuốn sách nổi tiếng khác của ông như Standard Deviation: Flawed Assumptions (Độ lệch chuẩn: Giả định sai lầm), Tortured Data (Dữ liệu bị tra tấn) cũng cảnh báo về những nguy cơ nhầm lẫn giữa tương quan và nhân quả trong phân tích thống kê.

Theo ICTVietNam

CyberPurify: Ứng dụng AI giúp bảo vệ trẻ em trên Internet


CyberPurify, một startup sử dụng học máy (machine learning) để nhận dạng nội dung độc hại vừa cho ra mắt giải pháp miễn phí CyberPurify Kids giúp phụ huynh trên toàn cầu thiết lập một môi trường an toàn cho con cái họ chỉ sau vài cú click chuột.

Ngăn chặn các nội dung độc hại với trẻ em

Sản phẩm chạy một mô hình deep learning trên trình duyệt để nhận dạng và ngăn chặn hiển thị 15 loại nội dung độc hại đối với trẻ em, bao gồm cả pornography, ma tuý và bạo lực đẫm máu. Sản phẩm được cung cấp dưới dạng extension/add-on trên các trình duyệt phổ biến như Google Chrome, Microsoft Edge, Firefox và Safari.

Theo BBFC, cơ quan quản lý nội dung truyền thông độc lập và phi lợi nhuận về hệ thống phân loại dung, phim, game đáng tin cậy ở Vương quốc Anh, 7 – 8 tuổi là độ tuổi mà một số trẻ đã tình cờ nhìn thấy nội dung khiêu dâm, hơn 60% trẻ em 11 – 13 tuổi và 53% trẻ từ 14 đến 15 tuổi vô tình tiếp xúc với nội dung khiêu dâm trên mạng.

Hầu hết chúng mô tả cảm giác là “kinh khủng” và “bối rối”, gây cảm giác tiêu cực nhất, đặc biệt là những đứa trẻ dưới 10 tuổi. Giai đoạn dưới 10 tuổi là giai đoạn trẻ tiếp xúc và khám phá với thế giới bên ngoài, do đó trẻ rất dễ bắt chước và bị tác động bởi các tác nhân tiêu cực. Các nội dung không phù hợp như hình ảnh tai nạn, máu me, ngược đãi động vật, bạo lực và nhất là nội dung khiêu dâm có thể khiến trẻ khó chịu, bối rối, ám ảnh về sau.

CyberPurify: Ứng dụng AI giúp bảo vệ trẻ em trên Internet - Ảnh 1.
Ông Bình Nguyễn, CEO CyberPurify: Đây là sản phẩm đầu tiên trên thế giới chạy trên trình duyệt có thể nhận dạng được hầu hết các loại nội dung độc hại trên Internet.

Bình Nguyễn, founder & CEO, cũng là phụ huynh có hai con nhỏ, cho rằng, việc xâm phạm quyền riêng tư của trẻ em bằng cách theo dõi chúng làm gì, xem gì, cũng sẽ gián tiếp ảnh hưởng đến tính cách, tinh thần và khả năng phát triển của chúng. Trước đây, phụ huynh đối mặt với việc để bọn trẻ sử dụng máy tính bất chấp sự nguy hiểm đến từ không gian mạng, hoặc xâm phạm nghiêm trọng không gian cá nhân riêng tư của trẻ khi sử dụng các phần mềm bảo mẫu truyền thống.

“Chúng tôi tập trung vào việc xây dựng mô hình AI cho phép nhận dạng và phân loại những nội dung độc hại, định nghĩa lại khái niệm về sự an toàn cho trẻ em bằng cách thay thế sự theo dõi kiểm soát bằng sự bảo vệ chủ động của AI trong việc nhận dạng theo thời gian thực ngay khi nội dung chưa hiển thị. Việc này giống như bạn đã trao cho mỗi đứa trẻ một người bảo vệ trung thành tận tụy, lại không phán xét hay soi mói đời tư. Sản phẩm này sẽ là một người bạn đồng hành thật sự với mỗi đứa trẻ trong hành trình khám phá tri thức trên Internet”, ông Bình chia sẻ.

CyberPurify: Ứng dụng AI giúp bảo vệ trẻ em trên Internet - Ảnh 2.
Bên cạnh nhận dạng 15 loại nội dung bao gồm cả nội dung khiêu dâm, bạo lực…, CyberPurify Kids còn ngăn chặn các trang lừa đảo, malware và phát tán virus.

Có thể nhận dạng được hầu hết các loại nội dung độc hại trên Internet

Việc sử dụng sản phẩm cũng hết sức đơn giản, với phương châm “cài đặt và quên nó đi” (install and forget it), phụ huynh chỉ cần nhấn nút install CyberPurify Kids trong store chứa extension/add-on của các tình duyệt, mỗi khi đứa trẻ truy cập Internet trên trình duyệt, CyberPurify sẽ tự động phân tích các nội dung đang hiển thị, che mờ nếu phát hiện chúng độc hại, hoặc gửi báo cáo đến phụ huynh khi phát hiện trẻ tìm hiểu về ma tuý, dược phẩm. Khi đứa trẻ tìm cách gỡ bỏ bộ lọc mạnh mẽ này, phụ huynh cũng sẽ nhận được thông báo.

Trước đây, CyberPurify cung cấp dịch vụ B2B dưới dạng phần cứng và phần mềm chuyên dụng với khách hàng là những doanh nghiệp cung cấp nội dung số hoặc nền tảng (platform) sử dụng như một công cụ thay thế con người để kiểm duyệt tự động những nội dung do người dùng tạo ra, hiện xử lý trên 10 triệu nội dung hình ảnh và video mỗi ngày, tương đương với sức lao động của 20.000 người. 

Với sự phát triển của 5G, smartphone và các mạng xã hội, thế giới hiện có 4.66 tỷ người dùng Internet, trung bình mỗi người tạo ra tới 1,7 GB dữ liệu mỗi ngày, tương đương 2000 bức ảnh hoặc 150 video và ngày càng tăng cao hơn nữa trong tương lai, dẫn đến lượng nội dung đồ sộ cần được kiểm duyệt trước khi tiếp cận trẻ em ngày càng khổng lồ, đây là cơ hội để CyberPurify lấn sân sang cung cấp sản phẩm đến người dùng cuối bắt đầu với phiên bản Kids trên trình duyệt.

Theo phát ngôn của người đại diện, bên cạnh nhận dạng 15 loại nội dung bao gồm cả nội dung khiêu dâm, bạo lực, ám ảnh, và ma tuý, CyberPurify Kids còn ngăn chặn các trang lừa đảo, malware và phát tán virus. 

“Điều đặc biệt của CyberPurify Kids là bản thân nó cũng như một đứa trẻ, liên tục tự học thêm những nội dung độc hại được phát hiện mỗi ngày để trở nên thông minh hơn, ngăn chặn triệt để hơn về sau. Đây là sản phẩm đầu tiên trên thế giới chạy trên trình duyệt có thể nhận dạng được hầu hết các loại nội dung độc hại tồn tại trên Internet”, ông Bình cho biết thêm

Song song với việc điều hành CyberPurify, ông Bình từng là sáng lập và CEO của Applancer TopDev được đầu tư bởi SaraminHR, công ty niêm yết trên sàn KOSDAQ tại Hàn Quốc. 

“Đầu năm 2021, tôi rời Applancer TopDev để tập trung toàn bộ quỹ thời gian cho việc phát triển CyberPurify Kids, đây là thời điểm hoàn hảo để chúng tôi đưa khả năng nhận dạng mạnh mẽ trên máy chủ xuống trình duyệt, phục vụ cho nhiều gia đình có trẻ nhỏ” Ông Bình nói.

Ông Bình còn từng được biết là người tiên phong ứng dụng AI để nhận dạng nội dung khiêu dâm có tên là KillPorn, được sử dụng rộng rãi trong các phòng net và gia đình thời điểm từ năm 2007, sau khi đạt được giải thưởng Nhân Tài Đất Việt, ông đã trao giấy phép (license) cho VNPT để cung cấp đến các thuê bao Internet của nhà mạng này dưới tên gọi MegaKillPorn.

CyberPurify cũng là một trong 5 startup thắng giải “Thử thách sáng tạo cùng công nghệ trí tuệ nhân tạo – AI Accelerator Challenge 2021 (AAC 2021)” do Bộ Khoa học và Công nghệ bảo trợ và Đại sứ quán Úc tài trợ.

CyberPurify Kids được cung cấp miễn phí cho các trường học, phòng lab, Internet cafe hoặc những nơi có máy tính công cộng. Tính năng nâng cao bao gồm gửi báo cáo thống kê cho phụ huynh với giá 9$/tháng, và 99$/năm.

Theo ICTVietNam

Làm thế nào để người dùng tin tưởng AI?


Mọi người thường miễn cưỡng cung cấp thông tin cá nhân cho các hệ thống trí tuệ nhân tạo (AI), mặc dù các hệ thống này cần những thông tin đó để cung cấp các dịch vụ chính xác và cá nhân hóa hơn. Nhưng một nghiên cứu mới đây của Đại học Bang Pennsylvania đã cho thấy cách các AI yêu cầu thông tin từ người dùng có thể tạo ra sự khác biệt.

Họ trình bày những phát hiện của mình tại Hội nghị quốc tế hàng đầu về nghiên cứu tương tác người – máy ACM CHI 2021. Kết quả cho thấy, những người dùng quen thuộc với công nghệ – hay còn được gọi là những người dùng quyền lực như các kỹ sư phần mềm, những người sử dụng các tính năng nâng cao của phần cứng, hệ điều hành, chương trình hoặc trang web; chuyên gia chỉnh sửa video, nhà thiết kế đồ họa; game thủ, … ưa thích AI khi chúng cần giúp đỡ. Trong khi đó, người dùng không chuyên thích hệ thống AI tự giới thiệu rằng chúng vừa cung cấp sự hỗ trợ, vừa tìm kiếm sự giúp đỡ.

Theo giáo sư S. Shyam Sundar tại trường truyền thông Donald P. Bellisario của ĐH Bang Pennsylvania và là đồng giám đốc Phòng thí nghiệm nghiên cứu hiệu ứng truyền thông, khi AI ngày càng trở nên phổ biến, các nhà phát triển cần tạo ra những hệ thống liên hệ tốt hơn với con người. “Chúng ta cần phải suy nghĩ lại về cách các hệ thống AI nói chuyện với người dùng. Vấn đề này nổi lên bởi ngày càng có nhiều quan ngại về việc AI đã bắt đầu chiếm lấy cuộc sống của chúng ta và biết về chúng ta nhiều hơn những gì ta nhận ra. Vì vậy, tốt hơn là chúng ta nên bắt đầu chuyển từ những kịch bản đối thoại truyền thống [mà máy móc đang sử dụng] sang một dạng giao tiếp mang tính hợp tác hoặc cộng tác hơn để thừa nhận vai trò tự quyết của người dùng”, ông nói.

Các nhà nghiên cứu cho biết những đối thoại AI truyền thống thường đóng khung vai trò của AI như một kẻ trợ giúp. Trên thực tế, những người chuyên dùng máy tính có thể cảm thấy khó chịu với điều này vì chúng như thể đang ra vẻ bề trên với họ. Chẳng hạn như yêu cầu cung cấp thông tin ngày sinh của Facebook để AI của họ có thể đưa ra trải nghiệm phù hợp với lứa tuổi, Sundar nói rằng khi đó, AI dường như có thái độ… gia trưởng trong cách giao tiếp với người dùng.

Mặt khác, khi một hệ thống AI đề nghị người dùng giúp đỡ, nó sẽ mang tính xã hội hơn. Theo Mengqi Liao, nghiên cứu sinh truyền thông đại chúng và là tác giả chính, “việc ai đó tìm kiếm sự giúp đỡ là hành vi vốn có của xã hội và rất tự nhiên trong giao tiếp. Nó giúp mọi người tin tưởng hơn và tăng ý định cung cấp thông tin cá nhân cho AI hơn. Người dùng quyền lực cũng đánh giá cao năng lực của những AI này hơn, mặc dù chúng mang lại kết quả tương tự như các AI khác”. Khi hệ thống vừa tìm kiếm sự giúp đỡ vừa nói với người dùng rằng nó có thể giúp họ trong tương lai, những người dùng không chuyên cũng sẽ ít lo ngại về quyền riêng tư hơn.

Nghiên cứu đem lại cho các nhà thiết kế một cách tiếp cận đạo đức để tăng niềm tin của người dùng với máy móc thay vì cố gắng lừa họ cung cấp thông tin cá nhân. Nó cũng hữu ích với các nhà thiết kế muốn xây dựng chiến thuật để chống lại những hệ thống AI săn người dùng. Ví dụ, Liao cho biết họ thấy rằng sự hiện diện của cả hai tín hiệu “tìm kiếm sự giúp đỡ” và “cung cấp sự giúp đỡ” có thể làm tăng mối lo ngại về quyền riêng tư của những người dùng chuyên nghiệp. Do đó, chỉ cần thêm cả hai dấu hiệu đó vào lời giới thiệu của AI là có thể khiến họ trở nên cảnh giác hơn về thông tin cá nhân.

Đối với người dùng không chuyên, các nhà thiết kế có thể thêm các tín hiệu “tìm kiếm sự trợ giúp” để làm giảm sự hiện diện xã hội và khuyến khích người dùng trở nên cảnh giác hơn về thông tin cá nhân.

Trong tương lai, họ có thể xem xét việc sử dụng AI trong những bối cảnh nhạy cảm hơn, chẳng hạn như thu thập thông tin tài chính và y tế, để xác định xem cách giới thiệu nào có thể ảnh hưởng đến sự cảnh giác của người dùng trong việc bảo vệ thông tin này.

Trang Linh lược dịch / TiaSang


Nguồn: https://techxplore.com/news/2021-05-ais-personal-important-gaining-user.html

Khi chatbot hẹn hò


Buổi hẹn hò đầu tiên có thể là một kỷ niệm ngượng ngùng thay vì đáng nhớ cho các đôi trai gái. Giới công nghệ vừa để cho hai chatbot – ứng dụng trí tuệ nhân tạo (AI) biết giao tiếp – thử hò hẹn và tán tỉnh nhau, và kết quả cũng sượng sùng không kém.Ảnh cắt từ videoẢnh cắt từ video

Chàng là Blenderbot – ngoại hình y chang Mark Zuckerberg, còn nàng là Kuki – da trắng, tóc xanh lơ sáng màu. Chàng mặc áo bó sát, khoe cơ thể nở nang hơn ông chủ Facebook, đội mũ bóng chày có dòng chữ “Làm cho Facebook vĩ đại trở lại”, còn nàng diện nhiều hơn cho buổi hẹn hò với quần xatanh màu nõn chuối.

Cả hai tầm hơn đôi mươi một chút. Họ gặp nhau, và như bao buổi hò hẹn khác, chuyện trò về đủ thứ chủ đề, từ chính trị và tôn giáo đến đội bóng mình mê – Blenderbot là fan của Liverpool còn Kuki cuồng đội Leeds, và sở thích – nàng từng thích sưu tập tiền xu, còn bây giờ chỉ thích tiêu chúng.

Đây thực tế không phải là một buổi hẹn hò, mà là một cuộc thi đấu trí tuệ với tên gọi Bot Battle. Sự kiện được tổ chức để thử xem khả năng trò chuyện của các chatbot – vốn đang được các tổng đài điện thoại và website sử dụng để thay nhân viên tương tác với khách hàng và người dùng – có giống con người một cách thuyết phục hay không.

Blenderbot là sản phẩm của đơn vị chuyên nghiên cứu trí tuệ nhân tạo của Facebook, còn Kuki là con cưng của chuyên gia thiết kế AI Steve Worswick. Buổi hẹn hò đặc biệt kéo dài đến 2 tuần, từ 20-10 đến 3-11, trong đó chàng và nàng trò chuyện 24/24, hết chuyện này sang chuyện khác. Toàn bộ buổi hẹn được phát trực tiếp trên nền tảng Twitch, và người dùng sẽ bỏ phiếu xem chatbot nào có kỹ năng giao tiếp giống con người hơn. Kết quả là Kuki thắng áp đảo với 78% bình chọn từ hơn 15.000 người xem, theo Pandorabots – công ty sở hữu Kuki và cũng là nhà tổ chức cuộc thi.

Cuộc thi như một phiên bản ngọt ngào của phép thử Turing trứ danh: một “trò chơi bắt chước” do Alan Turing thiết kế để kiểm tra khả năng trí tuệ của máy tính có thể giống như con người hay không. Những người đứng sau cuộc thử nghiệm có rất nhiều kỳ vọng. Lauren Kunze, giám đốc điều hành Pandorabots, cho biết việc để hai sản phẩm AI tán gẫu hết ngày đến đêm nhằm “làm nổi bật cả điểm mạnh lẫn điểm yếu của các hệ thống AI đối thoại hiện đại nhất”.

Buổi hẹn hò của Blenderbot và Kuki không đơn thuần diễn ra dưới dạng văn bản, chat qua chat lại; buổi live trên Twitch cho thấy cảnh như một bộ phim hoạt hình, có chuyển góc camera, hai nhân vật có cử động miệng, chớp mắt và biểu cảm thay vì trơ trơ như robot. Quyết định trao cho các chatbot này một hình hài là để “người ta sẽ thích, hiểu và nhớ chúng nhiều hơn so với các chatbot chỉ hoạt động dưới dạng giọng nói hay tin nhắn” – theo tiến sĩ Ari Shapiro, nhà sáng lập Embody Digital, công ty tạo hình cho Blenderbot và Kuki.

Thế nhưng, kết quả thử nghiệm cũng gây tranh cãi. BBC cho rằng Blenderbot và Kuki đã có “buổi hẹn hò sượng sùng nhất thế giới”, còn báo The Guardian cho thấy thử nghiệm nhằm kiểm tra xem chatbot có thể hò hẹn lãng mạn đã diễn ra không thực sự như ý muốn.

Thực tế, chuyện AI trò chuyện như con người ban đầu còn gây thích thú, nhưng càng về sau càng có nhiều hoài nghi về một tương lai mà các thuật toán giao tiếp với chúng ta như giữa người với người. Microsoft rất đau khổ vì mỗi lần nhắc đến chuyện AI nói bậy là sản phẩm chatbot Tay của họ lại được nhắc đến như một ví dụ kinh điển: Tay được huấn luyện từ các trao đổi trên Twitter, và kết quả nó trở thành một AI chuyên văng tục chửi thề, lại còn phân biệt chủng tộc.

Cặp đôi mới hẹn hò cũng thế – chàng và nàng bàn chuyện sát hại những người nổi tiếng, và Blenderbot mô tả Hitler là “một người vĩ đại, người đã giúp tôi vượt qua nhiều sóng gió cuộc đời”. Blenderbot còn vui vẻ khoe “đời anh đã giết nhiều người”, và lịch sự hỏi Kuki “còn em thì sao?”.

Cuộc trò chuyện cũng đầy những lần hỏi – đáp chẳng ăn nhập gì với nhau. Chẳng hạn, Kuki đố vui một câu để pha trò: “Anh có biết tại sao phụ nữ không thể vừa chuốt mascara mà ngậm miệng không?”, Blenderbot trả lời lịch sự nhưng… trớt quớt: “Cám ơn đã chia sẻ. Em là một người tốt”.

Thật khó để ai đó xem Blenderbot và Kuki nói chuyện với nhau và mắc lừa rằng đó là hai con người thực thụ. Còn những lo sợ về cái ngày robot xâm lăng con người thì sao? Nếu là người bi quan, có thể nhận thấy một tín hiệu gì đó đáng báo động trong khoảnh khắc Kuki đề nghị sẽ kể chuyện cười cho Blenderbot nghe. “Em sẽ mở nó trên card âm thanh của anh” – nàng nói, và chàng đáp: “Anh thích card âm thanh lắm”.

Đây là khoảnh khắc hiếm hoi hai chatbot thể hiện rằng chúng biết mình là sản phẩm kỹ thuật số chứ không phải con người bằng xương bằng thịt. Từ nhận thức ban đầu này, sẽ đến lúc chatbot hay robot biết rõ chúng là ai, và sẽ chiếm chỗ của con người chăng?

TRÚC ANH / Theo TTCT

Thuật toán phán quyết tự do hay tù đầy


Một cô bé 14 tuổi từng ăn cắp một chiếc xe đạp trẻ em, nhưng nhiều năm sau một phần mềm máy tính của cơ quan tư pháp Hoa Kỳ vẫn buộc cô là một tên tội phạm. Giới chuyên gia đã gióng lên hồi chuông báo động vì trí tuệ nhân tạo đang được sử dụng để phán quyết về số phận của một con người ngày càng nhiều.


Steven Spielberg là người có linh cảm nhạy bén, thường phát hiện được những câu chuyện hay, thú vị. Năm 2002 ông đã làm bộ phim “Minority Report”, kể về một gã đàn ông làm việc trong cơ quan tiền tội phạm, ở đây có nhiều người có năng lực tiên đoán những kẻ có thể gây tội ác trong tương lai. Nhân vật chính trong phim đã phát hiện tên tội phạm tiềm năng kịp thời, y đã bị tóm trước khi có hành vi phạm tội. Trong thực tế, ở ngoài đời thực, truyện trong phim Hollywood đã được áp dụng từ lâu rồi: Khoảng mươi năm nay cơ quan tư pháp ở Hoa Kỳ đã áp dụng kỹ thuật tiên đoán để ngăn tội ác không diễn ra trong tương lai. Phần mềm Compas giúp cơ quan tư pháp tạo hồ sơ tội phạm và xem xét liệu trong tương lai tên tội phạm đó có gây ra tội ác mới hay không.

Từ nhiều năm nay trí tuệ nhân tạo đã can dự vào nhiều lĩnh vực trong cuộc sống hàng ngày. Nó quyết định về độ tin cậy đối với vay tín dụng, về đầu tư cổ phiếu, thậm chí cả về chuyện mua gì tặng nhân dịp tết. Sức mạnh của trí tuệ nhân tạo tăng lên rất nhanh: máy tính được sử dụng ngày càng nhiều vào việc xem xét các vấn đề có thể có tác động quyết định đến cuộc đời mai sau của con người ta như thế nào. Thí dụ nó khuyến nghị về việc có nên đăng ký tham gia phỏng vấn xin việc hay không hay ai đó có khả năng theo học đại học không. Vấn đề cần hỏi là dùng máy tính để phán xét những vấn đề như thế này có phải là một ý tưởng tốt đẹp hay không?

Các nhà khoa học và nhiều tổ chức ở Đức đang nghên cứu về vấn đề này. “Chúng ta phải quy trách nhiệm cho trí tuệ nhân tạo (AI) và đặt những câu hỏi về nó“, nhà nghiên cứu Katharina Zweig, tại Đại học Kỹ thuật Kaiserslautern nói. Bà quan sát ảnh hưởng của phần mềm từ góc độ đặc biệt: đó là tin học xã hội. Cùng với các chuyên gia tâm lý học, các luật sư và các nhà khoa học xã hội khác, bà tập trung nghiên cứu máy tính có thể giúp hiểu xã hội đầy phức tạp này một cách đầy đủ hơn không. Kết quả cho thấy, phần mềm Compas không giúp ích gì nhiều.

Thuật toán với những định kiến 

Máy tính có thể xử lý một số việc tốt hơn nhiều so với con người: chúng có thể lưu, phân tích và phân loại dữ liệu với một khối lượng lớn mà con người khó có thể kham nổi. Máy tính còn có ưu điểm là không có cảm giác bị tổn thương, cũng không biết bực tức. 

Phần mềm Compas của hãng Northpointe được cho là sẽ giúp hệ thống tư pháp tránh được định kiến trước khi kết án. Đó là lý do vì sao mọi tính toán đều dựa trên cơ sở truy vấn dữ liệu hết sức trung lập. Thí dụ khi đánh giá lý lịch của tội phạm AI có khi còn xem xét cả tiền án nếu có của những người họ hàng gần. Ngân hàng dữ liệu cũng tự động bị truy vấn về các dữ liệu liên quan đến lạm dụng ma túy hay rượu  bia đối với những người trong gia đình, liệu có nợ nần hay không, có hay nhảy việc và thay đổi chỗ ở hay không. 

Bên cạnh đó phần mềm còn nêu 137 câu hỏi đối với đương sự như: trong tình huống như thế nào thì đương sự cho rằng việc ăn cắp là đúng? Tình trạng hôn nhân của bố mẹ đương sự ? Trên cơ sở các câu trả lời phần mềm lập dự báo về tội phạm và xã hội, nhằm cung cấp cho các thẩm phán thông tin cơ bản  về nguy cơ tái phạm của tội phạm. Các yếu tố như mầu da hay nguồn gốc xuất  thân không được đề cập  – Compas giúp ra phán quyết hợp lý và không phân biệt mầu da. 

Tuy nhiên điều ngược lại đã xảy ra, theo nghiên cứu của Propublica, một tổ chức của Hoa Kỳ về điều tra của báo chí. Sau đây là một ví dụ, cô Brisha Borden, năm nay 18 tuổi, năm 2014 đã ăn cắp một xe đạp trẻ em trên đường phố có giá 80 đôla. Compas đánh giá cô ta 8 điểm –  và cho rằng cô này có nhiều khả năng tái phạm. Cũng trong năm đó, môt người đàn ông 41 tuổi, tên là Vernon Prater đã ăn cắp trong cửa hàng một thiết bị điện có giá 87 đôla. Prater từng bị tù 5 năm vì tội cướp có vũ trang và có liên quan đến một số tội phạm khác. Tuy nhiên gã này lại chỉ bị Compas đánh giá 3 điểm. 

Tại sao Compas lại có sự đánh giá khác nhau đến như vậy đối với hai kẻ phạm tội coi như tương đương nhau? Brisha Borden thì da đen còn Vernon Prater da trắng. Trong năm 2016 Propublica đã kiểm tra hàng nghìn trường hợp khác và so sánh với những gì đã diễn ra trong thực tế. Một điều nổi bật là Compas thường dự đoán những người phạm tội da đen sẽ tái phạm tuy nhiên trong thực tế dự báo đó lại thường không đúng.  

Zweig giải thích “Có giả định rằng một cái máy bao giờ cũng ra quyết định hợp lý hơn và không có định kiến như con người”. Nhiều người cho rằng trí tuệ nhân tạo có một loại ma lực, có sức hiểu biết hơn hẳn bộ óc con người  – và do đó về cơ bản có sự đánh giá hơn hẳn khả năng của con người. Thậm chí còn có cả một thuật ngữ về điều này: chủ nghĩa xô vanh kỹ trị (Technochauvinismus). 

Nhưng nghiên cứu đã chỉ ra rằng: Máy tính cũng hoàn toàn không ít định kiến hơn con người. Các hệ thống trí tuệ nhân tạo tuy xử lý các vấn đề thông qua tự học từ các tập dữ liệu. Nhưng con người lập trình cho máy tính, con người quyết định dùng tập dữ liệu nào làm tài liệu học tập. Do những người hoạt động trong lĩnh vực tin học và công nghệ chủ yếu da trắng và là nam giới cho nên AI thường “tư duy” như một người đàn ông da trắng. 

Tuy nhiên Compas không hỏi về mầu da – vậy tại sao hệ thống lại biết Brisha Borden là người da đen? “Nghiêm túc mà nói thì Compas thật sự không biết, nhưng mầu da của cô bé này được thể hiện ở nhiều đặc tính khác mà Compas đã từng thu thập”, Dietmar Hübner nói. Vị giáo sư triết học thuộc Đại học Hannover này cùng với các nhà tin học và luật học nghiên cứu về phân biệt đối xử thông qua máy tính. Hệ thống thu hút nhiều yếu tố để đánh giá: tình hình nhà ở, học vấn, tình trạng gia đình. “Những yếu tố này quan trọng đối với dự báo về tội phạm. Nhưng ở Hoa Kỳ những yếu tố này cũng liên quan nhiều đến mầu da – và nhiều khi hậu quả xã hội của nó là phân biệt chủng tộc và sự tách biệt.”

Nói một cách khác: thực tế xã hội cho thấy, khi nói đến người da đen ở Hoa Kỳ thường có xu hướng nghĩ ngay tới những người có những đặc điểm tiêu cực, xấu xa. “Thuật toán không làm mất đi những định kiến này, chúng thậm chí còn bảo tồn và duy trì các định kiến”, Hübner nói. “Thêm vào đó là có tình trạng người Mỹ gốc Phi thường bị theo dõi, giám sát nhiều hơn và dễ dàng bị bắt giữ hơn so với người da trắng”. Điều này làm cho dữ liệu bị biến dạng, mà các hệ thống tựa như Compas lại học từ các dữ liệu này – do đó các hệ thống này lại tiếp tục đẻ ra các dự báo sai lệch, méo mó.

Cho đến nay Northpointe, hãng chế tạo ra Compas chưa đưa ra được bằng chứng rằng phần mềm này ổn. Nhà nghiên cứu người Đức, bà Zweig đã làm công việc này: “Về các loại tội phạm nghiêm trọng, Compas đánh giá sai tới 75%”. Điều này có nghĩa là, trong số những kẻ bị thuật toán xếp vào loại nhóm có nguy cơ cao phạm tội nghiêm trọng, thì chỉ có một phần tư số người thực sự phạm loại tội này. Với tỷ lệ này thì độ chính xác của phần mềm hầu như không chính xác hơn dự đoán của những người được tuyển chọn ngẫu nhiên và có hiểu biết về thống kê tái phạm.  

Cạm bẫy của lập trình

Điều này làm nổi bật lên những vấn đề cơ bản, có tính pháp lý: Làm sao để thuật toán phục vụ nhân loại được tốt hơn?

“Điều quan trọng là, người sử dụng phải hiểu rõ về các hệ thống“, Kathrin Hartmann nói. Nhà khoa học chính trị thuộc Đại học Kỹ thuật Kaiserslautern đi đến Quận Eau Claire County thuộc địa phận Wisconsin (Hoa Kỳ), đây là nơi cơ quan tư pháp đã sử dụng Compas từ mười năm nay. 

Nhà khoa học này đã phỏng vấn các thẩm phán, luật sư và các nhà quản lý. “Ấn tượng của tôi là, nhiều người không nhận thức được rằng, Compas chỉ là một phương tiện hỗ trợ để ra quyết định”, bà nói. 

Vì về cơ bản phần mềm được thiết kế để có được một dự báo xã hội về bị can. Các thẩm phán cũng như nhân viên tư pháp thuộc các vị trí khác nhau thuộc ngành tư pháp có thể sử dụng dự báo này như một thiết chế để ra quyết định. Ví dụ nếu khả năng rủi ro cao, thẩm phán sẽ không tán thành quyết định cho bị cáo tạm tha mà sẽ thiên về quyết định tống giam  để phòng ngừa.   

Tuy nhiên theo Hartmann thì có nguy cơ các thẩm phán không coi các dự báo này là một lời khuyên mà coi đây là một bản án được chuẩn bị sẵn. Không có các cuộc tập huấn thường xuyên hay định kỳ. 

Tổ chức AlgorithmWatch có thông tin về các hệ thống ra quyết định trên cơ sở thuật toán cũng yêu cầu tăng cường tính minh bạch. “Các doanh nghiệp tư nhân thì muốn bán phần mềm của họ và các tổ chức nhà nước thì sử dụng chúng mà không có bất kỳ một sự can thiệp nào“, người phát ngôn Matthias Spielkamp nói. Điều này chứa đựng nhiều nguy cơ to lớn – và xét cho cùng thì là một sự mê hoặc. Cần có các quá trình dân chủ: “Chúng ta phải quyết định dành bao nhiêu tự do của chúng ta cho các hệ thống”. 

Trong nghiên cứu của mình Katharina Zweig cũng gặp phải một vấn đề bất ngờ, “khi chúng ta muốn đánh giá các quyết định tự động, thì phải biết rõ về các tiêu chuẩn đối với con người”. Ai chê trách thuật toán không khách quan, thì cũng phải kiểm tra các quyết định của con người. 

Thí dụ một nghiên cứu ở Israel cho thấy: sau một bữa ăn trưa các thẩm phán tuyên án thường nhẹ nhàng hơn so với trước đó. “Có lẽ đây là thời điểm tốt hơn để nêu câu hỏi, quyết định của con người thực ra tốt đến mức độ nào? Và chúng ta có thể làm thế nào để các quyết định đó được tốt hơn?” Có lẽ máy móc sẽ là tấm gương tốt đẹp hơn cho chúng ta.

Xuân Hoài dịch / Tạp Chí Tia Sáng


Nguồn: https://www.welt.de/wissenschaft/plus219024580/Kuenstliche-Intelligenz-Dieser-Algorithmus-entscheidet-ueber-Freiheit-oder-Knast.html

Cảnh báo: AI được khai thác để tăng cường sức mạnh tấn công mạng


Các cơ quan tình báo cần ứng dụng trí tuệ nhân tạo (AI) để ứng phó với các mối đe dọa từ tội phạm mạng, những kẻ cố gắng đang khai thác AI để tăng cường các cuộc tấn công mạng.

Các cơ quan tình báo cần nắm bắt cơ hội từ công nghệ trí tuệ nhân tạo (AI) để bảo vệ an ninh quốc gia khi tội phạm mạng và các quốc gia thù địch ngày càng tăng cường ứng dụng công nghệ để tiến hành các cuộc tấn công.

Cơ quan tình báo và an ninh Anh (GCHQ) đã tiến hành một nghiên cứu về việc ứng dụng AI cho mục đích an ninh quốc gia. Cơ quan này cảnh báo rằng sự xuất hiện của AI đã mang lại những cơ hội mới để tăng cường an ninh quốc gia và bảo đảm an toàn cho công chúng, nhưng nghiên cứu cũng đưa ra những thách thức mới tiềm ẩn, bao gồm nguy cơ của công nghệ AI đang được những kẻ tấn công triển khai.

Cảnh báo AI được khai thác để tăng sức mạnh các tấn công mạng - Ảnh 1.
Ảnh: Financial Times

Theo báo cáo nghiên cứu của Viện Nghiên cứu Quốc phòng và An ninh Hoàng gia (RUSI) Anh, các tác nhân độc hại chắc chắn sẽ tìm cách sử dụng AI để tấn công Anh, trong đó các nhà nước thù địch có khả năng nhất. Ngoài ra, các mối đe dọa khác, bao gồm những nhóm tội phạm mạng, cũng có thể khai thác AI theo cách tương tự.

Báo cáo cũng cảnh báo rằng việc ứng dụng AI trong các dịch vụ tình báo có thể “làm dấy lên các xem xét về quyền riêng tư và nhân quyền” khi thu thập, xử lý và sử dụng dữ liệu cá nhân để ngăn chặn các sự cố an ninh từ cuộc các tấn công mạng đến khủng bố. Theo đó, các lĩnh vực có thể hưởng lợi từ việc triển khai AI để hỗ trợ thu thập và sử dụng dữ liệu có hiệu quả hơn. Đó là tự động hóa các quy trình tổ chức bao gồm quản lý dữ liệu, cũng như ứng dụng AI cho an ninh mạng để xác định hành vi, phần mềm độc hại bất thường và ứng phó với các sự cố đáng ngờ theo thời gian thực.

Theo báo cáo nghiên cứu, AI còn hỗ trợ phân tích thông minh bằng cách sử dụng khả năng thông minh tăng cường (augmented intelligence) và các thuật toán nhằm hỗ trợ một loạt các quy trình phân tích của con người.

Tuy nhiên, Viện RUSI cũng chỉ ra rằng AI sẽ không bao giờ thay thế cho các cơ quan và nhân viên khác.

Không có trường hợp ứng dụng AI nào được xác định trong nghiên cứu này có thể thay thế phán đoán của con người. Các hệ thống cố gắng “dự báo” hành vi của con người cho các mục đích đánh giá mối đe dọa“, theo báo cáo nghiên cứu.

Tuy nhiên, việc triển khai AI để tăng cường khả năng của các cơ quan tình báo cũng có thể dẫn đến những lo ngại mới về quyền riêng tư, như lượng thông tin được thu thập về các cá nhân.

Tuy nhiên, báo cáo nghiên cứu cho rằng mặc dù có một số thách thức nhưng AI có khả năng “tăng cường nhiều khía cạnh cho công việc tình báo”.

Hoàng Linh (Theo zdnet.com) – ICTVietNam