Build a BOT in quick time to support COVID Scenario and place it with Teams and Your Website!

Build a BOT in quick time to support COVID Scenario and place it with Teams and Your Website! 

Overview This is my 2nd blog about a Chatbot solution to address the world wide problem “CoronaVirus” panademic. As it is now spreading across the world and its really vital to provide all citizens of the countries with up-to-date information. As we know it has come to a level that certain countries are in lockdown […]

Build a BOT in quick time to support COVID Scenario and place it with Teams and Your Website! — Everything is going to be 200 OK

What’s New in EDU: Free tools to enhance collaboration, STEM learning, inclusion and more from Bett 2020

What’s New in EDU: Free tools to enhance collaboration, STEM learning, inclusion and more from Bett 2020

The post What’s New in EDU: Free tools to enhance collaboration, STEM learning, inclusion and more from Bett 2020 appeared first on Microsoft News Centre Europe.

What’s New in EDU: Free tools to enhance collaboration, STEM learning, inclusion and more from Bett 2020 — Microsoft News Centre Europe

A Communication Compliance Walk-thru

Communication Compliance

Communication Compliance was announced at Microsoft Ignite 2019 as part of the new Insider Risk solution set in Microsoft 365. It builds on the features of Office 365 Supervision Policies, (something I’ve previously blogged about: Email Supervision in Office 365), however Communication Compliance has some fantastic improvements. Communication Compliance monitors outbound and inbound communication across […]

A Communication Compliance Walk-thru — Joanne C Klein

Abbott ID NOW COVID-19 test can give results in five or 13 minutes

One of the biggest problems with the COVID-19 coronavirus is the lack and slowness of testing for cases. Overloaded healthcare facilities, faulty tets, and lack of equipment result in the inability to catch up with the true spread of the virus through states, let alone the entire country and the world. Private companies are now…

Abbott ID NOW COVID-19 test can give results in five or 13 minutes — SlashGear

The professionals who predict the future for a living

Inez Fung

Professor of atmospheric science, University of California, Berkeley

Inez Fung
Leah Fasten

I’ve spoken to people who want climate model information, but they’re not really sure what they’re asking me for. So I say to them, “Suppose I tell you that some event will happen with a probability of 60% in 2030. Will that be good enough for you, or will you need 70%? Or would you need 90%? What level of information do you want out of climate model projections in order to be useful?”

I joined Jim Hansen’s group in 1979, and I was there for all the early climate projections. And the way we thought about it then, those things are all still totally there. What we’ve done since then is add richness and higher resolution, but the projections are really grounded in the same kind of data, physics, and observations.

Still, there are things we’re missing. We still don’t have a real theory of precipitation, for example. But there are two exciting things happening there. One is the availability of satellite observations: looking at the cloud is still not totally utilized. The other is that there used to be no way to get regional precipitation patterns through history—and now there is. Scientists found these caves in China and elsewhere, and they go in, look for a nice little chamber with stalagmites, and then they chop them up and send them back to the lab, where they do fantastic uranium-thorium dating and measure oxygen isotopes in calcium carbonate. From there they can interpret a record of  historic rainfall. The data are incredible: we have got over half a million years of precipitation records all over Asia.

I don’t see us reducing fossil fuels by 2030. I don’t see us reducing CO2 or atmospheric methane. Some 1.2 billion people in the world right now have no access to electricity, so I’m looking forward to the growth in alternative energy going to parts of the world that have no electricity. That’s important because it’s education, health, everything associated with a Western standard of living. That’s where I’m putting my hopes.

Anne-Lise Kjaer
Dvora Photography

Anne Lise Kjaer

Futurist, Kjaer Global, London

Prediction for 2030: Adults will learn to grasp new ideas

As a kid I wanted to become an archaeologist, and I did in a way. Archaeologists find artifacts from the past and try to connect the dots and tell a story about how the past might have been. We do the same thing as futurists; we use artifacts from the present and try to connect the dots into interesting narratives in the future.

When it comes to the future, you have two choices. You can sit back and think “It’s not happening to me” and build a great big wall to keep out all the bad news. Or you can build windmills and harness the winds of change.

A lot of companies come to us and think they want to hear about the future, but really it’s just an exercise for them—let’s just tick that box, do a report, and put it on our bookshelf.

So we have a little test for them. We do interviews, we ask them questions; then we use a model called a Trend Atlas that considers both the scientific dimensions of society and the social ones. We look at the trends in politics, economics, societal drivers, technology, environment, legislation—how does that fit with what we know currently? We look back maybe 10, 20 years: can we see a little bit of a trend and try to put that into the future?

What’s next? Obviously with technology we can educate much better than we could in the past. But it’s a huge opportunity to educate the parents of the next generation, not just the children. Kids are learning about sustainability goals, but what about the people who actually rule our world?

Philip Tetlock
Courtesy Photo

Philip Tetlock

Coauthor of Superforecasting and professor, University of Pennsylvania

Prediction for 2030: We’ll get better at being uncertain

At the Good Judgment Project, we try to track the accuracy of commentators and experts in domains in which it’s usually thought impossible to track accuracy. You take a big debate and break it down into a series of testable short-term indicators. So you could take a debate over whether strong forms of artificial intelligence are going to cause major dislocations in white-collar labor markets by 2035, 2040, 2050. A lot of discussion already occurs at that level of abstractionbut from our point of view, it’s more useful to break it down and to say: If we were on a long-term trajectory toward an outcome like that, what sorts of things would we expect to observe in the short term? So we started this off in 2015, and in 2016 AlphaGo defeated people in Go. But then other things didn’t happen: driverless Ubers weren’t picking people up for fares in any major American city at the end of 2017. Watson didn’t defeat the world’s best oncologists in a medical diagnosis tournament. So I don’t think we’re on a fast track toward the singularity, put it that way.

Forecasts have the potential to be either self-fulfilling or self-negatingY2K was arguably a self-negating forecast. But it’s possible to build that into a forecasting tournament by asking conditional forecasting questions: i.e., How likely is X conditional on our doing this or doing that?

What I’ve seen over the last 10 years, and it’s a trend that I expect will continue, is an increasing openness to the quantification of uncertainty. I think there’s a grudging, halting, but cumulative movement toward thinking about uncertainty, and more granular and nuanced ways that permit keeping score.

Keith Chen
Ryan Young

Keith Chen

Associate professor of economics, UCLA

Prediction for 2030: We’ll be more—and less—private

When I worked on Uber’s surge pricing algorithm, the problem it was built to solve was very coarse: we were trying to convince drivers to put in extra time when they were most needed. There were predictable times—like New Year’s—when we knew we were going to need a lot of people. The deeper problem was that this was a system with basically no control. It’s like trying to predict the weather. Yes, the amount of weather data that we collect today—temperature, wind speed, barometric pressure, humidity data—is 10,000 times greater than what we were collecting 20 years ago. But we still can’t predict the weather 10,000 times further out than we could back then. And social movements—even in a very specific setting, such as where riders want to go at any given point in time—are, if anything, even more chaotic than weather systems.

These days what I’m doing is a little bit more like forensic economics. We look to see what we can find and predict from people’s movement patterns. We’re just using simple cell-phone data like geolocation, but even just from movement patterns, we can infer salient information and build a psychological dimension of you. What terrifies me is I feel like I have much worse data than Facebook does. So what are they able to understand with their much better information?

I think the next big social tipping point is people actually starting to really care about their privacy. It’ll be like smoking in a restaurant: it will quickly go from causing outrage when people want to stop it to suddenly causing outrage if somebody does it. But at the same time, by 2030 almost every Chinese citizen will be completely genotyped. I don’t quite know how to reconcile the two.

Annalee Newitz
Sarah Deragon

Annalee Newitz

Science fiction and nonfiction author, San Francisco

Prediction for 2030: We’re going to see a lot more humble technology

Every era has its own ideas about the future. Go back to the 1950s and you’ll see that people fantasized about flying cars. Now we imagine bicycles and green cities where cars are limited, or where cars are autonomous. We have really different priorities now, so that works its way into our understanding of the future.

Science fiction writers can’t actually make predictions. I think of science fiction as engaging with questions being raised in the present. But what we can do, even if we can’t say what’s definitely going to happen, is offer a range of scenarios informed by history.

There are a lot of myths about the future that people believe are going to come true right now. I think a lot of people—not just science fiction writers but people who are working on machine learning—believe that relatively soon we’re going to have a human-equivalent brain running on some kind of computing substrate. This is as much a reflection of our time as it is what might actually happen.

It seems unlikely that a human-equivalent brain in a computer is right around the corner. But we live in an era where a lot of us feel like we live inside computers already, for work and everything else. So of course we have fantasies about digitizing our brains and putting our consciousness inside a machine or a robot.

I’m not saying that those things could never happen. But they seem much more closely allied to our fantasies in the present than they do to a real technical breakthrough on the horizon.

We’re going to have to develop much better technologies around disaster relief and emergency response, because we’ll be seeing a lot more floods, fires, storms. So I think there is going to be a lot more work on really humble technologies that allow you to take your community off the grid, or purify your own water. And I don’t mean in a creepy survivalist way; I mean just in a this-is-how-we-are-living-now kind of way.

Finale Doshi-Velez
Noah Willman

Finale Doshi-Velez

Associate professor of computer science, Harvard

Prediction for 2030: Humans and machines will make decisions together

In my lab, we’re trying to answer questions like “How might this patient respond to this antidepressant?” or “How might this patient respond to this vasopressor?” So we get as much data as we can from the hospital. For a psychiatric patient, we might have everything about their heart disease, kidney disease, cancer; for a blood pressure management recommendation for the ICU, we have all their oxygen information, their lactate, and more.

Some of it might be relevant to making predictions about their illnesses, some not, and we don’t know which is which. That’s why we ask for the large data set with everything.

There’s been about a decade of work trying to get unsupervised machine-­learning models to do a better job at making these predictions, and none worked really well. The breakthrough for us was when we found that all the previous approaches for doing this were wrong in the exact same way. Once we untangled all of this, we came up with a different method.

We also realized that even if our ability to predict what drug is going to work is not always that great, we can more reliably predict what drugs are not going to work, which is almost as valuable.

I’m excited about combining humans and AI to make predictions. Let’s say your AI has an error rate of 70% and your human is also only right 70% of the time. Combining the two is difficult, but if you can fuse their successes, then you should be able to do better than either system alone. How to do that is a really tough, exciting question.

All these predictive models were built and deployed and people didn’t think enough about potential biases. I’m hopeful that we’re going to have a future where these human-machine teams are making decisions that are better than either alone.

Abdoulaye Banire Diallo
Guillaume Simoneau

Abdoulaye Banire Diallo

Professor, director of the bioinformatics lab, University of Quebec at Montreal

Prediction for 2030: Machine-based forecasting will be regulated

When a farmer in Quebec decides whether to inseminate a cow or not, it might depend on the expectation of milk that will be produced every day for one year, two years, maybe three years after that. Farms have management systems that capture the data and the environment of the farm. I’m involved in projects that add a layer of genetic and genomic data to help forecastingto help decision makers like the farmer to have a full picture when they’re thinking about replacing cows, improving management, resilience, and animal welfare.

With the emergence of machine learning and AI, what we’re showing is that we can help tackle problems in a way that hasn’t been done before. We are adapting it to the dairy sector, where we’ve shown that some decisions can be anticipated 18 months in advance just by forecasting based on the integration of this genomic data. I think in some areas such as plant health we have only achieved 10% or 20% of our capacity to improve certain models.

Until now AI and machine learning have been associated with domain expertise. It’s not a public-wide thing. But less than 10 years from now they will need to be regulated. I think there are a lot of challenges for scientists like me to try to make those techniques more explainable, more transparent, and more auditable.

This article was originally published by:


Artificial Intelligence Discovers Unusual Associations in Medicine

Artificial intelligence does wonders in healthcare. The technology helped issue the first COVID-19 warning before the WHO and CDC did so. It can slash the phenomenon of alarm fatigue. IBM’s Watson Health leverages the power of A.I. to bring drugs to the market faster. And it does so while cutting costs by over 50%. Speaking…

Artificial Intelligence Discovers Unusual Associations in Medicine — The Medical Futurist

Các hệ tính toán tự nhiên: Của AI “trả lại” AI

Khởi nguồn từ khoa học máy tính, các ứng dụng của trí tuệ nhân tạo (AI) đã được ứng dụng cho rất nhiều ngành khoa học tự nhiên khác thông qua việc tìm kiếm, phân loại, tối ưu. Vậy liệu các kiến thức, phương pháp trong các ngành khoa học cơ bản khác có thể tác động trở lại AI, làm cho nó tốt hơn không hay có thể tạo thành những hệ tính toán AI với cấu trúc khác biệt so với các hệ AI của khoa học máy tính hiện nay?

Câu hỏi này được đặt ra vì hiện nay, các hệ AI vẫn còn nhiều hạn chế, đặc biệt về hiệu suất tính toán và tiêu thụ năng lượng. Ví dụ như bộ não con người chỉ tiêu thụ một công suất khoảng 20W thì một hệ thống AI có khả năng suy nghĩ như não người (hiện chưa có) được dự đoán sẽ cần tiêu thụ một lượng điện năng lớn hơn ít nhất 1 triệu lần não người nếu dựa trên kiến trúc hiện tại. Xa hơn, các hệ AI cần thêm các khả năng thông minh trừu tượng hơn (so với việc thực hiện xử lý thông tin trực tiếp từ các giác quan, hay phản xạ, tối ưu,…) như phát kiến, sáng tạo, đức tin, tính cách… mà cấu trúc hiện nay còn hạn chế. Trong bối cảnh đó, các hệ AI mới cần được chế tạo trên những vật liệu thực, với các cấu phần chính của chúng (neuron, liên kết giữa các neuron) là các thực thể vật chất thì mới có thể đạt được hiệu suất vượt trội. Chúng tôi tạm gọi các hệ tiềm năng đó là “các hệ tính toán tự nhiên phục vụ AI”, với các nguyên lý của các ngành khoa học tự nhiên khác là cơ chế hoạt động chính.

AI học hỏi não người

Một hệ thông minh tự nhiên có thể được coi là một hệ mà các cấu phần của nó là các thực thể tự nhiên tương tác với nhau và tạo ra sự tính toán thông minh. Bộ não là một hệ thông minh tự nhiên hoàn hảo. Các hệ AI hiện tại phần lớn là một sự mô phỏng lại sơ bộ cấu trúc sinh học của bộ não bởi các máy tính (dưới dạng phần mềm), chúng không phải tự nhiên và chính là nguồn gốc của chữ A (artificial). Khi bộ nhớ bị xóa hết, máy tính tắt thì hệ AI đó không còn tồn tại. Tính toán AI qua mô phỏng hạn chế ở chỗ: mọi tính toán giữa các neuron thực chất phải truyền về nơi tính toán của máy tính là CPU/GPU với số lượng hạn chế so với số thành phần (neuron, khớp thần kinh) cần tính toán, cùng với năng lượng tiêu thụ lớn hơn. Các hệ thông minh tự nhiên chế tạo trên các vật chất thực có được lợi điểm lớn nhất là: tính toán trên chính các thực thể vật chất (như neuron trong não), không phụ thuộc vào CPU/GPU bên ngoài. Các tính toán như vậy sẽ diễn ra với tốc độ ánh sáng và tiêu thụ rất ít năng lượng.

Với gần 100 tỷ neuron và 100 ngàn tỷ khớp thần kinh, não người là một bộ máy vô cùng phức tạp. Sự phức tạp nằm ở các kết nối còn thành phần cấu tạo thì lại đơn giản với ba thành phần chính: neuron, dây thần kinh, khớp thần kinh. Hình 1a mô phỏng một cấu trúc neuron với rất nhiều xúc tua (dendrite) là nơi nhận các tín hiệu từ các neuron đi tới nó. Nhân của neuron là nơi tổng hợp lại các tín hiệu đến và thực hiện chức năng phát (fire) nếu tổng tín hiệu đến đạt đủ một ngưỡng nào đó. Có thể mô tả chức năng của neuron gồm một phép cộng (+) tín hiệu và một phép biến đổi phi tuyến f (sẽ giải thích rõ hơn ở phần sau). Tín hiệu mà nhân phát ra được truyền qua duy nhất một dây thần kinh (axon) và điểm cuối của axon kết nối với xúc tua của một hay nhiều neuron khác. Chỗ kết nối này là một nơi rất quan trọng, nó có điện trở có thể thay đổi được dựa trên việc tín hiệu chạy qua nhiều hay ít, mạnh hay nhẹ, trước hay sau bao lâu. Giá trị điện trở đó theo ngôn ngữ AI gọi là trọng số (w) của hai kết nối neuron-neuron và chứa đựng mọi kiến thức của con người. Trong ngôn ngữ thần kinh kết nối này được gọi là synapse 1. Hình 1c biểu diễn sự kết nối của nhiều neuron với nhau và hình 1b là một hình ảnh mô phỏng sự kết nối giữa các neuron thực, với màu đỏ là nhân neuron và các điểm sáng là khớp nối synapse. Ở hình 2 chúng ta được thấy một bức tranh tổng thể của một não ruồi do Google mới chụp lại đầu năm 2020, thể hiện tất cả 25,000 neuron và 25 triệu khớp nối của ruồi. Nói tóm lại, có thể mô hình một cấu trúc não sinh học như là một tổ hợp gồm hai thành phần quan trọng nhất bao gồm 2:

Nhân neuron (gọi tắt là neuron) thực hiện phép + tín hiệu và cơ chế phát theo ngưỡng f.

Khớp nối (synapse) cho phép truyền tín hiệu qua nhiều hay ít, nhanh hay chậm dựa trên điện trở của chúng. Chúng ta mô tả chức năng này bằng phép nhân ×.

Các ứng dụng AI hiện đại nhất hiện nay dựa trên các mô hình học sâu Deep Learning đều mô phỏng lại mô hình này một cách nào đó. Hình 3a biểu diễn một mạng Deep Learning với các lớp neuron cách biệt nhau. Các neuron trong một lớp chỉ nhận tín hiệu từ các neuron của lớp trước và chỉ phát tín hiệu đến các neuron của lớp sau. (Đây là một sự đơn giản hóa bởi với hình số 2, chúng ta có thể tưởng tượng được tín hiệu không truyền theo lớp tách biệt như thế trong cấu trúc sinh học.)

Có thể mô tả chi tiết hơn bằng công thức các hoạt động của neuron và synapse, trong đó tín hiệu phát ra từ neuron 0 ký hiệu x0 qua sợi trục (axon) của chính nó; tín hiệu truyền đến khớp nối (synapse) có độ dẫn điện w0, trở thành w0 x0; tín hiệu tiếp tục đi vào xúc tua (dendrite) của neuron chính đang xét (vòng tròn xanh); các tín hiệu tương tự w1 x1, w2 x2 từ các neuron khác cũng truyền đến neuron chính; neuron chính thực hiện phép cộng các tín hiệu từ các neuron khác, cộng thêm một điện thế đặc trưng của chính nó b tạo thành tín hiệu vào; neuron chính thực hiện cơ chế phát theo ngưỡng, phát ra một xung điện nếu tín hiệu vào  vượt qua một ngưỡng nào đó. Cơ chế này được mô tả bằng một hàm kích hoạt (activation function) f tạo thành tín hiệu  phát ra axon (giống như neuron 0 ban đầu).

Hình 3: a) Sơ đồ mạng neuron học sâu với 2 lớp ẩn b) mô tả toán học của một neuron và synapse (Image credit: CS231n)

Tín hiệu của não bộ của chúng ta cũng được truyền đi theo cách tương tự như vậy. Ví dụ khi nhìn thấy một con mèo, ánh sáng từ mèo được chiếu vào các tế bào giác mạc của mắt, chuyển thành tín hiệu điện truyền qua các dây thần kinh thị giác chứa các khớp nối hay synapse. Do các synapse có giá trị điện trở định sẵn, tín hiệu hình ảnh của con mèo sẽ tạo ra những dòng điện khác nhau tại những neuron khác nhau ở lớp trung gian. Cuối cùng, tín hiệu được truyền đến các dây thần kinh và neuron vùng nhận thức, ở đó các neuron tương ứng với phần nhận thức đây là con mèo, được kích hoạt mạnh nhất. Đây chính là quá trình xác định hay suy diễn (inference), quá trình này chúng ta sử dụng các giá trị điện trở có sẵn của các synapse.

Vấn đề là làm sao có được các giá trị giá trị điện trở synapse phù hợp ở vùng trung gian và ở vùng nhận thức để tạo ra những neuron tương ứng với khái niệm con mèo? Đó chính là quá trình học của mạng neuron cũng như của não người. Có thể coi quá trình học, cả của mạng nhân tạo và mạng sinh học, là quá trình xác định nên các giá trị khớp nối synapse phù hợp.

Trong não bộ, các giá trị khớp nối được điều chỉnh qua mỗi quá trình quan sát và thực hành. Ví dụ như khi mới bắt đầu tập đi, một đứa trẻ sẽ thử nghiệm và nếu đứng được thì các khớp nối dẫn đến các động tác trước đó sẽ được tăng cường (giá trị tăng – potentiation). Ngược lại, nếu bị ngã, đứa trẻ sẽ cảm thấy đau và các khớp nối dẫn đến các động tác đi không đúng sẽ bị suy giảm giá trị, hoặc mất đi (depression). Học chính là một sự thử nghiệm và lặp lại cho đến khi các khớp nối có được giá trị phù hợp. Rất may mắn là quá trình tiến hóa tự nhiên đã cho chúng ta rất nhiều tri thức chứa trong các giá trị ban đầu của khớp nối thần kinh (được mã hóa qua ADN và đột biến). Các giá trị đó đã rất gần giá trị phù hợp cho việc học đi nên một đứa trẻ chỉ cần thử vài lần, bị ngã vài lần là có thể đi được. Trong khi đó, để “dạy” cho một robot tập đi thì chúng ta cần tạo ra các giá trị khớp nối của mạng neuron của robot từ đầu, thông thường là từ những giá trị khởi tạo ngẫu nhiên. Chúng ta cần truyền rất nhiều dữ liệu cho robot và nó sẽ thử đi – ngã và học nhiều lần với rất nhiều năng lượng tiêu thụ. Chế tạo một robot biết đi “mượt” như con người là việc rất khó mà không nhiều nhóm làm được.

Đến đây chúng ta nhận thấy có một đặc điểm rất đặc biệt của khớp nối – synapse – là nó có khả năng tự điều chỉnh lại giá trị sau khi mà neuron mà nó truyền giá trị đến phản ứng với giá trị trước đó của nó. Đây gọi là cơ chế đàn hồi thời gian (time plasticity) đặc biệt của khớp nối, là cơ chế giúp chúng ta học được. Các hệ thông minh tự nhiên muốn hoạt động cũng cần phải chế tạo được cơ chế này. Nói tóm lại, các hệ thông minh tự nhiên cần có các cấu trúc gồm các neuron và khớp nối liên kết với nhau với 2 chức năng và 2 cơ chế quan trọng nhất (Xem hình 5a):

– Chức năng nhân tín hiệu × của khớp nối với trọng số (điện trở) của nó.

– Chức năng cộng tín hiệu + của neuron.

– Cơ chế đàn hồi thời gian – điều chỉnh được trong số (điện trở) của khớps nối.

– Cơ chế phát tín hiệu theo ngưỡng f của neuron

Những hệ thông minh tự nhiên đầu tiên

Một số nhóm nghiên cứu/start-up đã bước đầu xây dựng được các hệ thông minh tự nhiên, trong đó giải pháp sử dụng vật liệu điện và quang đang có những tiến bộ quan trọng. Chúng tôi mô tả ngắn ngọn thiết kế của 2 nhóm tiêu biểu trong các như sau:

1. Nhóm Đại học Massachuset sử dụng các vật liệu tiên tiến là trở nhớ để chế tạo các neuron trở nhớ và synapse (khớp nối) trở nhớ:

Với neuron, nhóm chế tạo một điện trở với 2 điện cực kim loại áp lên một lớp vật liệu điện môi (SiOxNy hoặc SiOx) được cấy các hạt nano bạc (Ag) tạo thành một linh kiện (điện) trở nhớ. Kết hợp với một tụ điện C, trở nhớ này có thể thực hiện chức năng phát tín hiệu theo ngưỡng f như sau: Khi tín hiệu truyền đến nhiều và đủ lớn, tụ điện và điện trở được tích đủ điện thế và kích hoạt các hạt bạc tạo thành một kênh dẫn điện (một hiệu ứng vật lý phức tạp) và dòng điện truyền qua giúp neuron phát đi tín hiệu. Sau khi phát điện, các hạt bạc khuếch tán trở lại và ngắt kênh dẫn điện, neuron trở về trạng thái đóng ban đầu (xem hình 5b)..

Với synapse (khớp nối), nhóm cũng sử dụng vật liệu trở nhớ với dung môi HfOx kẹp giữa 2 điện cực Pd và Ta tạo thành trở nhớ trượt (drift memristor). Cấu trúc này cho phép thay đổi điển trở của synapse tùy theo giá trị điện thế áp dụng. Các synapse được chế tạo thành một lưới liên kết tín hiệu vào và các neuron đầu ra ở trên. Với cấu trúc trên, tương tác giữa synapse và neuron tạo ra khả năng học của synapse: Khi neuron phát, điện thế trên neuron giảm làm điện thế trên synapse tăng cao, tiếp tục làm cho độ dẫn điện của synapse tăng lên (điện trở giảm đi) và quá trình học được tăng cường. Đây chính là cơ chế đàn hồi thời gian nói trên.

Cuối cùng, chức × của synapse được thực hiện bởi định luật Ohm khi dòng điện đi qua synapse và chức năng + của neuron được thực hiện bởi định luật Kirchoff của lưới synapse. Hệ thống trên đã được thử nghiệm ở độ phân giải nhỏ và cho phép học các chữ cái thông thường.

2. Một nhóm khác từ MIT nay đã spin-off thành công ty Lightelligence (huy động được hơn 10 triệu USD) chế tạo các hệ thông minh tự nhiên với các vật liệu và dụng cụ quang học như sau:

Neuron được chế tạo bởi một bộ biến đổi phi tuyến quang học (optial non-linear unit – ONU) bao gồm các vật liệu hấp thụ bão hòa quang học (optical saturable absorption) cho phép phát tín hiệu theo. Phép cộng của neuron và phép nhân ma trận được thực hiện bởi bộ phân giao thoa quang học (otpical interference Unit – OIU), trong đó phép nhân được chia thành 3 phép nhân của của 2 ma trận unitary và 1 ma trận đường chéo, theo phương pháp SVD (“singular value decomposition). Các phép nhân này được thực hiện bởi bộ chia tách (beamsplitter) và bộ dịch pha quang học (phase shifter). Cuối cùng, cơ chế đàn hồi theo thời gian nhóm thực hiện bên ngoài với sự hỗ trợ của máy tính thông thường tại thời điểm công bố bài báo 2016.

Hai ví dụ trên đã cho thấy các hệ thông minh tự nhiên bao gồm các neuron và synapse là các thực thể vật chất, tương tác dựa trên các quy luật tự nhiên (trường hợp tín hiệu điện là định luật Ohm và Kirchoff) là khả thi và có thể được thương mại hóa trong tương lai gần. Lợi điểm lớn nhất của chúng là tính toán phân tán trên vật liệu, do đó mang lại tốc độ xử lý song song rất nhanh với rất ít năng lượng tiêu thụ. Đây chính là cách tự nhiên hơn mà chúng ta có thể mô phỏng bộ não con người.

Các hệ thông minh tự nhiên có thể thay thế được các hệ AI trên máy tính hiện tại chứ không thay thế được máy tính, do đặc tính quan trọng của chúng là tính biến động cao (không ổn định). Ví dụ cùng một ánh sáng, một hệ quang có thể cho cường độ sáng khác nhau ở hai lần đo các biến động như sự hao mòn của vật liệu, rung động môi trường, … Với một máy tính, việc tính sai là không thể cho phép. Nhưng với một hệ AI thì sai số lại không quá nghiêm trọng đến độ chính xác của suy luận. Thật vậy, nếu bạn đã từng train một mạng neuron với hơn 10000 trọng số và đạt được một độ chính xác nào đó. Hãy bỏ đi ngẫu nhiên vài thậm chí vài chục trong số (cho giá trị bằng 0), các giá trị của neuron ở lớp ra sẽ khác nhau, nhưng sự tương đối giữa chúng thì không đổi. Ví dụ một mạng có 2 neuron đầu ra thể hiện sự nhận dạng hình ảnh giữa chó và mèo, giá trị neuron nào cao hơn sẽ chỉ ra con vật tương ứng. Khi hình ảnh được đưa vào, giá trị của hai neuron đã chênh lệch đủ lớn nên khi có sai số ở mỗi neuron, chiều chênh lệch vẫn không thay đổi và mạng vẫn nhận dạng tốt. Trong não bộ chúng ta, các khớp nối mất đi, thoái hóa thường xuyên trong suốt cuộc đời nhưng khả năng suy nghĩ của não không thay đổi quá đột ngột (tất nhiên sẽ có trường hợp như khi tai nạn bị mất đột ngột quá nhiều khớp nối cùng lúc, khi đó khả năng tư duy sẽ bị ảnh hưởng do các khớp nối không thể ngay lập tức được thay thế và việc học sẽ tốn thêm khá nhiều thời gian). Do đó các hệ thông minh tự nhiên có tính ổn định cao và có tiềm năng trở thành những cỗ máy thông minh thực sự.

Cơ hội cho Việt Nam?

Việc cần thiết phải có những hệ thông minh tự nhiên như trên đã tạo ra một cơ hội cho Việt Nam theo kịp về công nghệ so với thế giới, về hai khía cạnh. Thứ nhất là về công nghệ sản xuất bộ vi xử lý (chip): nếu sản xuất chip dựa trên mạch điện tích hợp cho máy tính thông thường thì chúng ta đã bị tụt hậu quá xa và khó thương mại hóa thành công. Trong khi đó, hệ thông minh tự nhiên (điện hoặc quang) có thể coi là một chip AI thế hệ mới, hiện mới được nghiên cứu ở phòng thí nghiệm và chưa có sản phẩm thương mại. Thứ hai là về chính AI: nếu sản xuất được chip AI thế hệ mới, chúng ta sẽ có thể triển khai các bài toán AI nhanh hơn rất nhiều lần so với máy tính thông thường hiện nay, ví dụ như “training” hàng triệu bức ảnh trong vài phút. Điều này sẽ giúp cho việc học, thực hành và ứng dụng AI hay AI trên dữ liệu lớn được dễ dàng và phổ cập. Ngoài ra, chip AI thế hệ mới còn hứa hẹn tạo ra những tiến bộ mới trong khoa học tri thức, đưa AI gần với não bộ con người hơn, tạo ra những ứng dụng cao cấp như suy nghĩ, sáng tạo… có thể giúp Việt Nam vươn lên theo kịp trình độ quốc tế và thậm chí có tham vọng dẫn đầu về AI.

Để có được cơ hội đó, chúng ta cần thay đổi cách nhìn AI là một phần mềm chạy trên máy tính (PC). Rất nhiều nỗ lực hiện đang được tập trung cho “phần mềm” này, là những đoạn code thiết kế ra các mạng neuron và thực hiện tính toán trên đó. Chúng ta cần đầu tư thêm vào phần sau của khái niệm trên, tức là các hệ thống vật chất (Vật lý, Hóa học, Sinh học,…) thực hiện AI nhanh hơn, thông minh hơn và không nhất thiết là các máy tính hiện nay. Hướng khả thi nhất theo chúng tôi là các nhà khoa học của ba  ngành – khoa học vật liệu, công nghệ nano, trí tuệ nhân tạo – cùng ngồi lại và thiết kế ra các hệ thông minh tự nhiên nói trên.


1. Chưa tìm được từ Việt hóa tương đương, có thể tạm gọi là “khớp nối”

2. Mô hình này có thể còn đơn giản, não sinh học có thể có những chức năng khác mà tác giả chưa được biết.


Tài liệu tham khảo

1. Wang, Z., Joshi, S., Savel’ev, S. et al. Fully memristive neural networks for pattern classification with unsupervised learning. Nat Electron 1, 137–145 (2018) doi:10.1038/s41928–018–0023–2

2. Shen, Y., Harris, N., Skirlo, S. et al. Deep learning with coherent nanophotonic circuits. Nature Photon 11, 441–446 (2017).


Nguyễn Quang – Nguyễn Trần Thuật –