Máy tính đếch quan tâm

by
Reading time: 27 minutes
The improbability of genuine thinking machines

In 1965, Herbert Simon, one of the founders of the new science of Artificial Intelligence (AI), wrote that “machines will be capable, within twenty years, of doing any work that a man can do”. He was wrong of course – but maybe his mistake was only a matter of timing.

Sự bất khả của những cỗ máy biết suy tư
Năm 1965, Herbert Simon, một trong những nhà sáng lập ngành khoa học Trí tuệ nhân tạo (AI), đã phán rằng “trong vòng 20 năm tới, máy móc sẽ có khả năng làm bất cứ công việc gì mà con người có thể làm”. Đương nhiên, ông ấy đã sai – nhưng có lẽ ông chỉ sai về mặt thời gian.

If Simon were to see what computing machines were capable of, fifty-five years after he made this remark, surely even he would be amazed. A single smartphone contains more computing power than all the world’s computers in 1965 put together. And many of the philosophical arguments against the possibility of AI from the 1960s and 70s fell flat on their face as the technology advanced. The philosopher Hubert Dreyfus also claimed in 1965 that “no chess program can play even amateur chess” – true at the time, but proved false soon after. When in 1997 the IBM programme Deep Blue beat the chess champion Garry Kasparov, this conclusively destroyed the idea that world-class chess was something computers can’t do; Kasparov has commented recently that “today you can buy a chess engine for your laptop that will beat Deep Blue quite easily”. And the familiar claim that computers could never really use their stored knowledge as well as human beings was shaken in 2011 by IBM’s Watson programme, which won the top $1 million prize on the American game show Jeopardy, beating the best human competitors.

Nếu Simon thấy những gì máy móc làm được – 55 năm sau khi đưa ra nhận định trên – chắc chắn ông cũng há mồm kinh ngạc. Giờ đây, ngay cả một chiếc điện thoại di động thông minh cũng có năng lực tính toán mạnh hơn tất thảy máy tính trên thế giới năm 1965 gộp lại. Và rất nhiều luận cứ triết thuyết “trù dập” năng lực AI từ những thập kỷ 1960-1970 đã không còn tồn tại, khi công nghệ này ngày càng có những phát triển vượt bậc. Cũng năm 1965, triết gia Hubert Dreyfus tuyên bố “không có chương trình máy tính nào có thể chơi được cờ vua, dù chỉ ở mức độ nghiệp dư”, và ngay sau đó đã “bị” chứng minh là sai. Năm 1997, Deep Blue của IBM đã đánh bại nhà vô địch Garry Kasparov, phá hủy toàn bộ ý tưởng cho rằng cờ vua đẳng cấp thế giới là thứ mà máy tính không thể thực hiện được; mới đây, Kasparov nhận xét “ngày nay, một trò chơi cờ trên laptop cũng có thể dễ dàng đả bại Deep Blue“. Và những tuyên bố quen thuộc rằng máy tính không bao giờ có thể sử dụng được kiến thức lưu trữ của con người, đã bị lung lay vào năm 2011, khi Watson – phần mềm trí tuệ nhân tạo do IBM phát triển với mục đích đưa ra lời đáp cho các câu hỏi có cấu trúc ngôn ngữ tự nhiên – đã vượt qua mọi đối thủ con người, giành giải cao nhất 1 triệu đô-la trong gameshow Jeopardy! nổi tiếng của Mỹ.

AI sceptics used to claim that computers would never be able to recognize human faces or human speech, translate speech into text, or convert handwriting to printed text. But today’s phones can do all these things. Dreyfus had made gentle fun of the grand claims of AI, quoting a fanciful newspaper report from 1968 about “a new idea in gifts… a genuine (if small) computer, that costs around $20. Battery operated, it looks like a portable typewriter. But it can be programmed like any big computer to translate foreign languages, diagnose illnesses, even provide a weather forecast”. What seemed then like wild science fiction is now our everyday reality.

Những kẻ hoài nghi AI từng tuyên bố máy tính sẽ không bao giờ có thể nhận dạng khuôn mặt, giọng nói, dịch lời nói ra văn bản hay chuyển bản viết tay thành bản in. Những việc đó, ngày nay một chiếc điện thoại di động cũng làm được tất. Dreyfus từng chế nhạo những tuyên bố vĩ đại của AI, trong một bài báo châm biếm năm 1968: “một ý tưởng mới về quà tặng… Chiếc máy tính nhỏ huyền thoại, có giá khoảng 20 đô-la, hoạt động bằng pin, trông giống một cái máy đánh chữ di động, có thể lập trình giống như bất kỳ máy tính lớn nào, để dịch tiếng nước ngoài, chẩn đoán bệnh tật, thậm chí đưa ra dự báo thời tiết”. Sự hoang đường y chang khoa học viễn tưởng thời đó, giờ đã hiện hữu hàng ngày trong thời đại chúng ta.

So Simon’s claim may have been proved false, but maybe he was only a few decades out. The achievements of actual AI – that is, the kind of technology that makes your smartphone work – are incredible. These achievements have been made possible partly by developments in hardware (in particular the increased speed and miniaturization of microprocessors) and partly because of the access to vast amounts of data on the internet – both factors that neither Simon nor Dreyfus could have predicted. But it means that enthusiastic predictions for AI are still popular. Many believe that AI can produce not just the “smart” devices that already dominate our lives, but genuine thinking machines. No one says that such machines already exist, of course, but many philosophers and scientists claim that they are on the horizon.

Phán đoán của Simon đã sai, nhưng có thể thấy chỉ cần vài thập kỷ, AI – công nghệ giúp điện thoại thông minh hoạt động – đạt được thành tựu thật kinh ngạc. Những thành tựu này có được một phần nhờ vào sự phát triển của phần cứng (đặc biệt là tốc độ xử lý và kích thước ngày càng nhỏ gọn của bộ vi xử lý) và một phần là do khả năng truy cập lượng dữ liệu khổng lồ trên internet – cả hai thứ mà Simon và Dreyfus đều không thể dự đoán. Nhưng điều đó có nghĩa là những phán đoán nhiệt thành ủng hộ AI vẫn là phổ biến. Người ta còn tin rằng AI không chỉ tạo ra các thiết bị “thông minh” thống trị cuộc sống con người, mà còn có thể tạo ra những cỗ máy biết tư duy thật sự. Dĩ nhiên, chưa ai nói những cỗ máy như vậy đã hiện hữu, nhưng nhiều triết gia và khoa học gia khẳng định, chúng sẽ sớm xuất hiện thôi.

To get there requires creating what researchers call “Artificial General Intelligence” (AGI). As opposed to a special-purpose capacity – like Deep Blue’s capacity to play chess – AGI is the general capacity to apply intelligence to an unlimited range of problems in the real world: something like the kind of intelligence we have. The philosopher David Chalmers has confidently claimed that “artificial general intelligence is possible … There are a lot of mountains we need to climb before we get to human-level AGI. That said, I think it’s going to be possible eventually, say in the 40-to-100-year time frame”. The philosophers John Basl and Eric Schwitzgebel are even more optimistic, claiming it is “likely that we will soon have AI approximately as cognitively sophisticated as mice or dogs”.

Để đạt được điều đó, đòi hỏi các nhà nghiên cứu phải tạo ra một thứ mà họ gọi là “Trí tuệ phổ quát nhân tạo” (AGI). Nó không giống bất kỳ loại năng lực nào có mục đích chuyên biệt – như khả năng chơi cờ của Deep Blue – AGI là năng lực tổng quát để ứng dụng trí thông minh vào một loạt các vấn đề không có giới hạn trong thế giới thực: một thứ giống như trí tuệ con người. Triết gia David Chalmers tự tin tuyên bố “Trí tuệ phổ quát nhân tạo là hoàn toàn có thể… Có rất nhiều đỉnh núi ta phải vượt qua trước khi đạt được AGI cấp độ con người. Nhưng tôi nghĩ điều đó cuối cùng sẽ thực hiện được, trong khoảng thời gian từ 40 đến 100 năm tới”. Triết gia John Basl và Eric Schwitzgebel thậm chí còn lạc quan hơn, cho rằng “có khả năng chúng ta sẽ sớm có AI về mặt nhận thức ở cấp độ tinh vi như chuột hoặc chó”.

The intellectual enthusiasm for the possibility of AGI is matched by the vast sums invested in trying to make it a reality. In July 2019, Microsoft announced that it would invest $1 billion in Sam Altman’s OpenAI, a for-profit company which aims to use AI for the “benefit of mankind as a whole”. The British company Deep Mind, led by the computer scientist/neuroscientist Demis Hassabis, was bought by Google for $500 million in 2014. Deep Mind’s best-known achievement to date is the machine AlphaGo, which in 2016 beat Lee Sedol, world champion of the ancient game of Go. Go is vastly more complex than chess – it is sometimes said to be the most complex game ever created – and standard AI chess-playing methods had never been successfully applied to it. The computing methods used by AlphaGo are often touted as one of keys to “solving intelligence”, as Deep Mind’s own publicity puts it.

Sự nhiệt thành lý trí với năng lực của AGI được sánh bằng lượng tiền khổng lồ đầu tư vào việc cố gắng biến nó thành hiện thực. Tháng 7/2019, Microsoft thông báo đầu tư 1 tỷ đô-la vào OpenAI của Sam Altman, một công ty hoạt động nhằm mục đích ứng dụng AI vì “lợi ích của toàn nhân loại”. Năm 2014, Google mua lại Deep Mind của nhà khoa học máy tính – thần kinh học Demis Hassabis, với giá 500 triệu đô-la. Thành tích nổi bật nhất của Deep Mind là sản sinh ra cỗ máy AlphaGo, đánh bại Lee Sedol, nhà vô địch cờ vây thế giới vào năm 2016. Cần phải nói là cờ vây phức tạp hơn nhiều so với cờ vua – được cho là trò chơi phức tạp nhất mà con người từng nghĩ ra – và các phương pháp chơi cờ tiêu chuẩn của AI chưa bao giờ áp dụng thành công cho trò chơi này. Các phương pháp tính toán mà AlphaGo sử dụng, được coi là một trong những chìa khóa để “hóa giải trí thông minh”, như chính những người sở hữu Deep Mind tuyên bố.

Brian Cantwell Smith’s new book is a provocative expression of scepticism about these recent claims on behalf of AI, from a distinguished practitioner in the field. His overall argument is based on a distinction between what he calls “reckoning” and “judgment”. Reckoning is understood here in its original etymological sense: as calculation, like addition and subtraction. Judgment, by contrast, is something more. It is described by Smith as “an overarching, systemic capacity or commitment, involving the whole commitment of the whole system to the whole world”. Our thinking involves not just some kind of simple on-off representation of things around us, but an entire emotional and value-laden involvement with the world itself. Computers have none of this. As the philosopher John Haugeland (a major influence on Smith) used to say, “computers don’t give a damn”. Giving a damn is a precondition of “judgment” in Smith’s sense, and anything that amounted to a real AGI would need to exercise judgment, and not simply calculate.

Tuy vậy, trong tác phẩm mới “The Promise of Artificial Intelligence” của Brian Cantwell Smith – nhà triết học và khoa học, chuyên gia trong các lĩnh vực khoa học nhận thức, khoa học máy tính, nghiên cứu thông tin và triết học, đặc biệt là bản thể học – lại chứa đầy biểu hiện hoài nghi về những tuyên bố nhân danh AI. Lập luận tổng quát của ông dựa trên sự phân biệt giữa cái mà ông gọi là “năng lực tính toán” và “năng lực phán đoán“. Ở đây, “năng lực tính toán” được hiểu theo nghĩa từ nguyên của nó: chỉ như một phép tính, như phép cộng, phép trừ. Ngược lại, “năng lực phán đoán” phải là một cái gì đó cao vời hơn thế. Nó được Smith mô tả là “năng lực hoặc cam kết mang tính hệ thống, bao trùm, liên quan đến sự cam kết của hệ thống tổng thể đối với thế giới tổng thể”. Suy nghĩ của con người không chỉ liên quan đến một số hình thức đại diện đơn giản về những thứ xung quanh, mà là sự tham gia toàn thể về mặt cảm xúc và đủ đầy về mặt giá trị vào thế giới khách quan. Điều này, hẳn là máy tính không bao giờ có thể làm được. Như triết gia John Haugeland (người có ảnh hưởng lớn đối với Smith) từng nói, “máy tính đếch quan tâm”. Đây không phải là lời xỉa xói cay độc mà chính là điều kiện tiên quyết của “khả năng phán đoán” theo cách hiểu của Smith và bất cứ thứ gì tương đương với một AGI thực sự, đều cần phải thực hiện “khả năng phán đoán” chứ không đơn thuần chỉ là “khả năng tính toán“.

The Promise of Artificial Intelligence gives a brief and intelligible survey of two main stages in the history of AI. The first stage, starting in the 1960s, was what Haugeland christened “Good Old-Fashioned AI” (GOFAI) which solved computing problems by using explicit representations of general principles and applying them to particular situations. (Think of doing a mathematical proof or presenting an argument in logic.) “Second wave” AI, which started to emerge in the 1980s, began from the opposite end, so to speak: deriving general conclusions from huge amounts of simple data as input. This kind of approach, variously called machine learning or deep learning, has had considerable success at things that GOFAI was very bad at, like pattern recognition, or updating knowledge on the basis of input.

Tác phẩm làm một khảo sát ngắn gọn và dễ hiểu về hai giai đoạn chính trong lịch sử AI. Giai đoạn đầu tiên, bắt đầu từ thập kỷ 1960, mà Haugeland đặt tên là “Good Old-Fashioned AI” (GOFAI) giúp giải quyết các vấn đề tính toán bằng cách sử dụng biểu diễn rõ ràng các nguyên lý chung và áp dụng chúng vào các tình huống cụ thể (như là thực hiện chứng minh một định lý toán học hoặc trình bày một lập luận logic). “Làn sóng thứ hai” của AI, xuất hiện vào thập kỷ 1980, theo hướng ngược lại, có thể diễn giải ngắn gọn là: rút ra kết luận tổng quát từ một lượng lớn dữ liệu đơn giản đầu vào. Phương pháp tiếp cận này, được gọi là học máy hoặc học sâu, đã đạt được thành tựu đáng kể ở những thứ mà GOFAI thực hiện rất tệ, như nhận dạng mẫu hoặc cập nhật tri thức từ cơ sở dữ liệu đầu vào.

First wave AI, it was often said, misconceived the nature of thinking: very little thinking resembles calculating or proving theorems. But Smith goes further, and argues that “the deeper problem is that it misconceived the world”. GOFAI assumed that “the world comes chopped up into discrete objects”, and because of this it analysed reasoning into its components by using formal logic (the basic ideas of which underlie modern computing). Smith argues that first wave theorizing assumed that the world must be structured in the way that logic structures language: objects correspond to names, properties correspond to predicates or general terms. Things fit together in the world as symbols fit together in a logical language. Smith claims that this is one main reason why the GOFAI project failed: it failed to take account of the “fabulously rich and messy world we inhabit”, which does not come in a “pre-given” form, divided up into objects.

Rồi sau đó người ta cũng nhận ra, làn sóng AI đầu tiên đã hiểu sai hoàn toàn bản chất của tư duy: suy nghĩ của con người khó mà tương đồng với những phép tính toán hay chứng minh định lý. Nhưng Smith còn đi xa hơn, ông lập luận “vấn đề sâu xa là nó đã nhận thức sai về thế giới khách quan”. GOFAI giả định rằng “thế giới bị chia nhỏ thành những đối tượng rời rạc”, và do đó nó đã phân tách các suy luận của con người ra các thành phần nhỏ hơn bằng cách sử dụng logic hình thức (là ý tưởng cơ bản làm nền tảng cho tính toán hiện đại). Smith lập luận rằng học thuyết của làn sóng AI đầu tiên giả định rằng thế giới được cấu tạo và tuân theo một ngôn ngữ có cấu trúc logic: các đối tượng tương ứng với tên gọi, các thuộc tính tương ứng với tính chất. Mọi thứ hòa hợp với nhau trong thế giới khách quan khi các ký hiệu, biểu tượng khớp với nhau trong một ngôn ngữ hình thức. Smith tuyên bố đây chính là lý do khiến GOFAI thất bại: nó không hiểu rằng “thế giới mà chúng ta đang sống vô cùng phong phú và lộn xộn”, vốn không bao giờ có dạng “cho trước”, hay được phân chia thành các đối tượng rõ ràng.

Second wave AI, according to Smith, does not make this mistake. It does not assume a “pre-given” ontology or structure for the world, and for that reason, he argues, it has made progress in the areas where GOFAI failed: in particular, with tasks like face recognition, text processing and (most famously) the game of Go. The distinctive feature of deep learning machines is their ability to detect patterns in large (sometimes huge) amounts of data. The machines “learn” by being given an indication by the programmer of which patterns are the important ones, and after a while they can produce results (for example, moves in a game) that surprise even the programmers. This is in contrast to first wave AI programmes which attempted to anticipate in advance how input from the real world should be responded to in every conceivable situation. Those early AI machines that worked only did so in very constrained made-up environments, sometimes called “microworlds”.

Theo Smith, làn sóng AI thứ hai đã tránh được sai lầm này. Nó không giả định thế giới là các mô hình dữ liệu (ontology) hoặc cấu trúc được “cho trước”, và do đó đạt được nhiều tiến bộ trong các lĩnh vực mà GOFAI thất bại: như nhận dạng khuôn mặt, xử lý văn bản và nổi tiếng nhất chính là trò chơi cờ vây. Tính năng đặc biệt của máy học sâu là khả năng phát hiện các mẫu trong khối lượng dữ liệu rất lớn (đôi khi khổng lồ). Máy móc “học” bằng cách được lập trình viên cho biết mẫu nào là quan trọng và sau một thời gian học, chúng có thể tạo ra kết quả (như các bước di chuyển trong trò chơi) khiến ngay cả lập trình viên cũng phải ngạc nhiên. Điều này ngược hẳn với các ứng dụng trong làn sóng AI đầu tiên, cố gắng dự đoán thế giới thực sẽ phản hồi thế nào trong các tình huống hoàn toàn có thể hình dung. Những cỗ máy AI sơ khai này chỉ hoạt động được trong môi trường có nhiều ràng buộc rất hạn chế, người ta còn gọi là “microworlds”.

Nonetheless, Smith thinks that we should not be too optimistic about the ability of second wave AI to create AGI. Machine learning may not start with general rules which make ontological assumptions, but it does start with data that is already processed by humans (eg things that we classify as faces, or as road traffic at an intersection and so on). Much machine learning, as Smith says, is “dedicated to sorting inputs into categories of manifest human origin and utility”. So even if they are more sensitive to the messy world, second wave AI machines are still tied up with the programmers’ own classifications of reality – indeed, it is hard to see how they could be otherwise designed.

Tuy nhiên, Smith cũng cho rằng không nên quá lạc quan về khả năng tạo ra được AGI của làn sóng AI thứ hai. Học máy không chỉ bắt đầu với quy tắc chung để tạo ra các giả định bản thể học, mà nó còn bắt đầu với dữ liệu đã được tiền xử lý bởi con người (như phân loại khuôn mặt hoặc xe cộ tại một giao lộ). Smith khẳng định, nhiều chương trình học máy chỉ “dành riêng cho việc phân loại đầu vào thành các nhóm có nguồn gốc và công dụng rõ ràng cho mục đích sử dụng của con người”. Như vậy, dù cho chúng có đáp ứng nhạy bén hơn với thế giới lộn xộn này đi nữa, các cỗ máy AI làn sóng thứ hai vẫn bị ràng buộc bởi việc phân lớp của chính các lập trình viên trong thế giới thực – mà thực sự là, người ta rất khó biết chúng được thiết kế ra sao.

Smith is surely right that AI’s recent successes give us little or no reason to believe in the real possibility of genuine thinking machines. His distinction between reckoning and judgment is an important attempt to identify what it is that is missing in AI models. In many ways (despite his protest to the contrary) it echoes the criticisms of Dreyfus and others, that AI will not succeed in creating genuine thinking unless it can in some way capture “common sense”. And just as common sense (part of Smith’s “judgment”) cannot be captured in terms of the “rules and representations” of GOFAI, nor can it be captured by massively parallel computing drawing patterns from data.

Smith đoan chắc, những thành công dù vang dội gần đây của AI cho ta quá ít lý do hoặc chẳng có lý do gì để tin vào khả năng hiện thực của những cỗ máy biết tư duy thật sự. Sự phân biệt rõ ràng giữa “khả năng tính toán” và “khả năng phán đoán” là một nỗ lực quan trọng để xác định những gì còn thiếu sót trong các mô hình AI. Như vậy, ông đã lặp lại lời chỉ trích của Dreyfus và một số người, rằng AI sẽ không thành công trong việc tạo ra một cỗ máy biết tư duy thực sự, trừ khi bằng một cách nào đó chúng có thể nắm bắt được “ý thức”. Và ý thức (là một phần trong “khả năng phán đoán” của Smith) không thể được nắm bắt theo kiểu “các quy tắc và biểu diễn” của GOFAI, cũng như không thể theo kiểu lấy các mẫu đại diện từ các khối dữ liệu cực lớn.

To make this point about judgment, Smith does not actually need the more ambitious ontological claims, that the world does not have natural divisions or boundaries, that all classification is simply a result of human interest, and so on. Maybe these claims are true, maybe not – for many centuries philosophy has wrestled with them, and they are worth debating. But we should not need to debate them in order to identify the fundamental implausibility of the idea that AGI is on the horizon.

Đưa ra quan điểm về “khả năng phán đoán“, thực ra Smith không cần những luận cứ bản thể học đầy tham vọng, rằng thế giới không có sự phân chia hay ranh giới tự nhiên, rằng mọi sự phân lớp chỉ đơn giản là kết quả cảm nhận của con người… Có thể những tuyên bố này là đúng, nhưng cũng có thể không. Triết học và khoa học đã vật lộn với nhau hằng thế kỷ, và chúng cũng đáng để tranh luận. Nhưng chúng ta không cần phải tranh luận để xác định sự thiếu sáng suốt của ý tưởng rằng, AGI sẽ xuất hiện trong nay mai.

This implausibility derives from something intrinsic to the success of AI itself. For despite the sophistication of machine learning, the fact remains that like chess, Go is still a game. It has rules and a clear outcome which is the target for players. Deep learning machines are still being used to achieve a well-defined goal – winning the game – the meaning of which can be articulated in advance of turning on the machine. The same is true of speech and face recognition software. There is a clear goal or target – recognizing the words and faces – and successes and failures in meeting this goal are the input which helps train the machine. (As Smith says, “recognition” here means: correctly mapping an image onto a label: nothing more than that.)

Sự thiếu sáng suốt này bắt nguồn từ một điều gì đó trong bản chất nội tại đối với sự thành công của chính AI. Vì lẽ, bất chấp sự phức tạp và tinh vi của học máy, thực tế là những thứ giống như cờ vua hay cờ vây, chỉ là một trò chơi. Chúng có các luật lệ, quy tắc và một kết quả rõ ràng làm mục tiêu cho người chơi. Máy học sâu vẫn được sử dụng để đạt được mục tiêu xác định – chiến thắng trò chơi. Ý nghĩa của mục tiêu được nêu rõ rành trước khi bật máy. Phần mềm nhận dạng giọng nói và khuôn mặt cũng thế. Chúng có một mục tiêu rõ ràng – nhận biết các từ ngữ và khuôn mặt – và những thành công hay thất bại trong việc đạt được mục tiêu này, phụ thuộc vào dữ liệu đầu vào giúp huấn luyện bộ máy (như Smith khẳng định, “nhận biết” ở đây có nghĩa là: ánh xạ chính xác một hình ảnh vào một nhãn cho trước – không hơn không kém).

But what might be the goal of “general intelligence”? How can we characterize in abstract terms the problems that general intelligence is trying to solve? I think it’s fair to say that no one – in AI, or philosophy, or psychology – has any idea how to answer this question. Arguably, this is not because it is an exceptionally difficult empirical question, but rather that it is not obviously a sensible one. I suppose someone might say, in the spirit of Herbert Simon (whose famous AI programme was called the “General Problem Solver”), that general intelligence is the general ability to solve cognitive problems. This might seem fine until we ask ourselves how we should identify, in general terms, the cognitive problems that we use our intelligence to solve. How can we say, in general terms, what these problems are?

Nhưng mục tiêu của “trí tuệ phổ quát” có thể là gì? Chúng ta đặc tả các thuật ngữ trừu tượng về các vấn đề mà “trí tuệ phổ quát” đang cố gắng giải quyết như thế nào? Tôi nghĩ thật công bình khi nói rằng không một ai – dù là chuyên gia trong lĩnh vực AI, triết học hay tâm lý học – có thể nghĩ ra bất kỳ ý tưởng nào để trả lời câu hỏi này. Có thể cho rằng, điều này không phải bởi vì nó là một câu hỏi thực nghiệm đặc biệt khó nhằn, mà rõ ràng nó không phải là một câu hỏi hợp lý. Tôi đồ rằng ai đó có thể phản bác, theo tinh thần của Herbert Simon (người phát triển ứng dụng AI nổi tiếng gọi là “General Problem Solver”), rằng “trí tuệ phổ quát” là khả năng tổng hợp để giải quyết các vấn đề về nhận thức. Điều này nghe có vẻ ổn cho đến khi ta tự hỏi làm thế nào để xác định các vấn đề nhận thức mà ta phải sử dụng trí tuệ của chính mình để giải quyết. Tổng quát hóa, bằng cách nào chúng ta xác định được những vấn đề này là gì?

Consider for example, the challenges faced in trying to create a genuine conversation with a computer. Voice assistants like Siri and Alexa do amazingly well in “recognizing” speech and synthesizing speech in response. But you very quickly get to the bottom of their resources and reach a “canned” response (“here are some webpages relating to your inquiry”). One reason for this, surely, is that conversation is not an activity that has one easily expressible goal, and so the task for the Siri/Alexa programme cannot be specified in advance. If the goal of conversation were to find information about a subject matter, then directing you to a website with relevant information could be one reliable way of achieving that goal. But of course this is not the sole thing to which we direct our intelligence when talking with others.

Ví dụ, hãy xem xét những thách thức phải đối mặt khi ta cố tạo ra một cuộc trò chuyện chân thực với máy tính. Các app trợ lý như Siri, Alexa làm rất tốt việc “nhận dạng” và tổng hợp giọng nói để phản hồi. Nhưng rất nhanh chóng, bạn sẽ truy đến tận cùng tài nguyên của chúng và nhận được những phản hồi “soạn sẵn” (kiểu “đây là một số trang web liên quan đến yêu cầu của bạn”). Chắc chắn, một lý do cho điều này chính là cuộc trò chuyện không phải là hoạt động có một mục tiêu dễ diễn đạt, và vì vậy không thể chỉ định trước nhiệm vụ cho Siri hay Alexa. Nếu mục tiêu của cuộc trò chuyện là tìm thông tin về một chủ đề, thì việc hướng bạn đến một trang web có thông tin liên quan là một cách đáng tin cậy để đạt được mục tiêu đó. Nhưng đương nhiên, đây không phải là điều duy nhất mà con người hướng đến khi trò chuyện với người khác.

What, then, is the overall goal of conversation? There isn’t one. We talk to pass the time, to express our emotions, feelings and desires, to find out more about others, to have fun, to be polite, to educate others, to make money… and so on. But if there is no single goal of conversation, then it is even less likely that there is one goal of “general intelligence”. So no wonder AI researchers struggle to even define the “task domain” for AGI.

Vậy thì, mục tiêu tổng quát của cuộc trò chuyện là gì? Không chỉ có một thôi đâu. Chúng ta trò chuyện để giết thời gian; để chia sẻ cảm xúc, bày tỏ cảm nhận và mong muốn của mình; để tìm hiểu về người khác; để vui vẻ; để có kiến thức; để giáo huấn người khác; để kiếm tiền… vân vân và mây mây. Nhưng nếu cuộc trò chuyện không chỉ có một mục tiêu duy nhất, thì càng ít có khả năng là “trí tuệ phổ quát” cũng chỉ có một mục tiêu. Vì vậy, chẳng có gì ngạc nhiên nếu các nhà nghiên cứu AI phải “uýnh nhau” để xác định “miền nhiệm vụ” cho AGI.

As Smith’s book shows, the claims for the possibility of AGI ignore the huge differences between the relatively well-defined areas where AI has succeeded, and the barely defined domain of “general intelligence”. This is, on its own, enough of a reason for scepticism about extrapolating beyond the spectacular successes of actual AI to the real possibility of AGI. Smith’s arguments about the ontological assumptions of AI, whatever their merits, are not necessary to make this point.

Tác phẩm của Smith cho thấy, khả năng AGI đã bỏ qua sự khác biệt khá lớn giữa các lĩnh vực được xác định tương đối rõ ràng (nơi mà AI đã có một số thành công nhất định) và các lĩnh vực mà hầu như chưa được xác định về “trí tuệ phổ quát“. Điều này, tự nó đã đủ lý do để hoài nghi việc ngoại suy quá đáng khi so những thành công ngoạn mục của AI trong thực tế với khả năng thực sự của AGI. Các lập luận của Smith về các luận cứ bản thể học của AI, bất kể chúng có giá trị ra sao, cũng không quá cần thiết để khẳng định quan điểm này.

Yet I suspect that many still have this lingering sense that AGI must be possible, and that the difference between real human thinking and what computers do is just a matter of complexity. What lies behind this conviction? One widespread idea is that since the human brain is just a complex biological (and therefore material) machine, it must be possible in principle to artificially reproduce what the human brain does (thinking, perceiving, feeling, imagining, being conscious, etc) by building something that functions in exactly the same way as the brain. And whatever we thereby build will be an artificial version of our mental processes: an AGI.
Tuy nhiên, tôi ngờ rằng nhiều người vẫn còn cảm giác dai dẳng rằng, AGI chắc chắn khả thi, và rằng sự khác biệt giữa suy nghĩ của con người và những gì máy tính có thể làm được, chỉ tồn tại ở một vấn đề: sự phức tạp. Điều gì nằm sau sự kiên định không thể lay chuyển này? Một quan niệm phổ biến hẳn là: bộ não con người chỉ là một cỗ máy sinh học (và do đó là vật chất) phức tạp, và như vậy về nguyên tắc, hẳn phải có một khả năng tái tạo lại những gì bộ não con người có thể làm (suy nghĩ, nhận thức, cảm giác, tưởng tượng, ý thức…) bằng cách dựng lên một cái gì đó hoạt động giống hệt như não bộ con người. Và bất cứ thứ gì dựng lên được sẽ là một phiên bản nhân tạo các tiến trình tinh thần của chúng ta: và đó là một AGI.

This argument is based on two ideas: first, that thinking and other mental processes go on in the brain; second, the brain is a machine or mechanism. So if we can uncover the principles that make this mechanism work, and we have adequate technology – the argument goes – then we should be able to build a machine that implements these principles, without leaving anything out. One of the pioneers of deep learning, Yoshua Benigo, puts it this way: “I don’t know how much time it’s going to take, but the human brain is a machine. It’s a very complex one and we don’t fully understand it, but there’s no reason to believe that we won’t be able to figure out those principles”.

Lập luận này dựa trên hai quan niệm: thứ nhất, suy nghĩ và các tiến trình tinh thần khác diễn ra trong não; thứ hai, bộ não là một cỗ máy hoặc một cơ chế. Vì thế, nếu ta có thể khám phá ra các nguyên tắc làm cho cơ chế này hoạt động và nếu có đầy đủ công nghệ, thì ta sẽ tạo ra một cỗ máy thực hiện các nguyên tắc này mà không bỏ sót bất cứ thứ gì. Một trong những nhà tiên phong của phương pháp học sâu, Yoshua Benigo, nói theo quan niệm này: “Tôi không biết sẽ mất bao nhiêu thời gian, nhưng bộ não con người là một cỗ máy. Đây là một vấn đề rất phức tạp và chúng tôi chưa hiểu đầy đủ về nó, nhưng không có lý do gì để tin rằng chúng tôi không thể tìm ra những nguyên tắc đó”.

Of course building an artificial copy of a real brain is nowhere close to today’s scientific reality. But if we believe that we are at bottom material beings – if we take away all our matter then there is nothing left of us – then such replication seems possible in principle, even if it is never actually realized. Suppose, then, a brilliant scientist of the future could replicate in an artificial construction everything a person (and their brain) does. Obviously this replica would also be able to think, since thinking is one of the things a person does. It is undeniable that making an artificial replica of a person and all their features would be making an “artificial intelligence” in an an obvious sense: simply because intelligence is one of the features of people.

Tất nhiên, không có gì phải nghi ngờ nền khoa học kỹ thuật ngày nay, trong việc dựng lên một bản sao nhân tạo y hệt như não người. Nhưng nếu tin rằng chúng ta là những sinh vật vật chất cùng tận – nghĩa là, nếu lấy đi mọi phần vật chất của mình thì không còn sót lại một thứ gì trong chúng ta – thì về nguyên tắc, cái sự tái tạo đó dường như là có thể, ngay cả khi nó không bao giờ thành hiện thực. Giả sử tiếp theo, một nhà khoa học lỗi lạc nào đó trong tương lai, tạo tác được một công trình nhân tạo, trong đó tích hợp mọi thứ mà một con người (gồm cả bộ não) có thể làm. Rõ ràng là tạo tác này cũng có thể suy nghĩ, vì suy nghĩ là một trong những điều mà con người phải làm. Không thể phủ nhận rằng việc tạo ra một tạo tác nhân tạo của một con người (gồm cả mọi tính năng) sẽ tạo ra một “trí tuệ nhân tạo”, theo nghĩa hiển nhiên: đơn giản bởi vì trí thông minh là một trong những đặc tính của con người.

The question is, what does this have to do with AI? If the way to create a real artificial thinker is to find out first how the brain works, then you would expect AI researchers to try and figure out how the brain or the mind actually works – that is, to become neuroscientists or psychologists. But this is not how AI researchers operate. Just as the invention of the aeroplane did not require building something that flies in exactly the way a bird flies, so the inventors of AI did not feel bound to copy the actual workings of human brains. And despite the fact that deep learning computers use what are called “neural networks”, the similarity to the brain here is at a very abstract level. Indeed, many pioneers of deep learning occupy themselves with very abstract questions about general intelligence – Benigo says his goal is “to understand the general principles of intelligence” – rather than with the messy business of the actual working of the human mind or brain.

Câu hỏi đặt ra ở đây là, chuyện này có liên quan gì đến AI không? Nếu như phương thức để tạo ra một bộ máy nhân tạo biết tư duy thực sự, là trước tiên phải tìm hiểu cách thức hoạt động của não bộ, thì bạn sẽ mong đợi các nhà nghiên cứu AI cố gắng tìm ra cách thức bộ não hoặc tâm trí thực sự hoạt động – nghĩa là họ sẽ trở thành nhà khoa học thần kinh hoặc nhà tâm lý học. Nhưng đó không phải là cách mà các nhà nghiên cứu AI đang thực hiện. Cũng giống như việc phát minh ra máy bay không bắt buộc phải tạo ra một thứ gì đó bay đúng như chim, do đó mà các nhà phát minh AI không thấy bị ràng buộc phải sao chép đúng y các hoạt động thực tế của não bộ con người. Và mặc dù trên thực tế là máy tính học sâu sử dụng cái được gọi là “mạng thần kinh”, nhưng ở đây, sự tương đồng với não bộ ở mức độ cực kỳ trừu tượng. Quả thực, nhiều nhà tiên phong trong lĩnh vực học sâu tự đặt ra những câu hỏi rất trừu tượng về trí thông minh nói chung – Benigo nói rằng mục tiêu của ông là “hiểu được các nguyên tắc chung của trí thông minh” – hơn là với mớ hỗn độn về hoạt động thực tế của trí óc hoặc não bộ con người.

This lack of focus on the way human minds (or brains) actually function goes back to the beginnings of AI, and it was clearly one of AI’s strengths. By ignoring the complexity of actual human thinking, and the messy “wetware” of the actual human brain, AI could get machines to solve difficult problems without having to bother with how we would solve them. Watson, the IBM website tells us, “is not bound by volume or memory. Watson can read millions of unstructured documents in seconds”. That’s not something we can do. The learning involved in training AlphaGo involved millions of practice games of Go – as the cognitive scientist and deep learning sceptic Gary Marcus has pointed out, this is “far more than a human would require to become world class at Go”. This means that whatever it explains about their success, it is not the similarity of these machines to human thinkers. So IBM should not claim that Watson is “built to mirror the same learning process that we have, a common cognitive framework that humans use to inform their decisions”.

Việc thiếu tập trung vào cách thức tâm trí con người thực sự hoạt động, đã đưa AI trở lại thời kỳ ban đầu và rõ ràng đây là một trong những điểm mạnh của AI. Bằng cách bỏ qua sự rối rắm trong suy nghĩ thực tế của con người và “phần ướt” lộn xộn trong não bộ, AI có thể giúp máy móc giải quyết những bài toán khó nhằn mà không cần phải bận tâm đến cách thức con người thực hiện. Watson của IBM “không bị ràng buộc bởi khối lượng hoặc bộ nhớ, có thể đọc hàng triệu tài liệu phi cấu trúc trong vài giây”. Đó không phải là điều con người có thể làm. Việc huấn luyện AlphaGo liên quan đến hàng triệu ván cờ vây – như nhà khoa học nhận thức và hoài nghi học sâu Gary Marcus đã chỉ ra, điều này “nhiều hơn mọi thứ mà một con người cần, để đạt đến đẳng cấp thế giới”. Có nghĩa là bất cứ thứ gì giải thích về thành công của AI, đều không tương đồng nhau về cách thức xử lý của những cỗ máy với cách suy nghĩ của con người. Do đó, IBM không nên tuyên bố rằng Watson “được xây dựng để phản ánh quá trình học tập giống như con người, là một khuôn khổ nhận thức chung mà con người sử dụng để đưa ra các quyết định của họ”.

Actual AI does not rely substantially on any detailed psychological or neuroscientific research. So the fact that the brain is a material mechanism which could, in principle, be replicated artificially gives no support to the idea that AI as it actually is could build an AGI. In fact, given the way AI has actually proceeded, in splendid isolation from neuroscience, it is likely that any attempt to replicate the brain would require ideas very different from those traditionally used by AI. To say this is not to disparage AI and its achievements; it is just to emphasize the obvious fact that it is not, and has never been, a theory of human thinking.
Trên thực tế, AI không phụ thuộc vào bất kỳ nghiên cứu tâm lý hoặc khoa học thần kinh cụ thể nào. Vì thế, việc não bộ là một cơ chế vật chất, mà về nguyên tắc có thể được tạo tác nhân tạo, cũng không ủng hộ quan niệm rằng AI (như hiện thực của nó) có thể tạo ra được AGI. Thực ra, với cách thức mà AI đang tiến hành, trong sự cách ly hoàn toàn với khoa học thần kinh, một khả năng chắc chắn là: bất kỳ nỗ lực tái tạo bộ não nào cũng sẽ đòi hỏi những ý tưởng rất khác so với những ý tưởng mà AI hiện nay đang áp dụng. Nói như vậy không phải là để chê bai AI và những thành tựu của nó; mà chỉ để nhấn mạnh một sự thật hiển nhiên rằng: AI không phải và chưa bao giờ là một lý thuyết về tư duy của con người.

Philosophical and scientific discussions of AI have tended towards one of two extremes: either that genuine artificial thinking machines are just on the horizon, or they are absolutely impossible in principle. Neither approach is quite right. On the one hand, as Smith, Marcus and others have explained, we should be sceptical that recent advances in AI give any support to the real possibility of AGI. But on the other, it is hard to deny the abstract philosophical claim that if you could replicate a human brain in such a way that would produce something that did everything the brain did, then that thing would be a “thinking machine” in one clear sense of that phrase. However, this mere possibility does not mean that today’s AI is anywhere near creating genuine thinking machines. On the contrary: when you examine the possibility more closely, it shows why AI is unlikely ever to do this.

Các tranh luận khoa học và triết học về AI có xu hướng dẫn đến một trong hai thái cực: hoặc là, (1) các cỗ máy tư duy nhân tạo giống như con người chắc chắc sẽ sớm xuất hiện; hoặc là, (2) về nguyên tắc chúng hoàn toàn không thể. Chẳng có cách tiếp cận nào là hoàn toàn đúng. Một mặt, như Smith, Marcus đã giải thích, chúng ta chớ vội tin rằng: với những tiến bộ gần đây của AI, chúng sẽ hỗ trợ đắc lực cho khả năng thực sự của AGI. Nhưng mặt khác, rất khó để chối từ đoán định triết lý trừu tượng rằng: nếu ta có thể tạo tác bộ não con người theo cách mà ta tạo ra được một thứ gì đó có thể làm được mọi thứ mà bộ não đã làm, thì thứ đó sẽ được gọi là “bộ máy tư duy”, theo đúng nghĩa rõ ràng của cụm từ này. Tuy nhiên, khả năng đơn thuần đó không có nghĩa là AI ngày nay đã tiến bộ đến mức gần như có thể tạo được những cỗ máy tư duy thực thụ. Mà ngược lại: khi ta xem xét khả năng đó kỹ càng hơn, nó cho thấy lý do tại sao AI sẽ chẳng bao giờ làm được.

Bài viết của Tim Crane – Giáo sư Triết học tại Đại học Trung Âu – Biên tập viên Triết học Tạp chí TLS
Translated by Lê Minh
Photo by Alex Knight on Pexels
34

No Comments Yet.

What do you think?

Your email address will not be published.