Jorge Luis Borges đã từng viết rằng sống trong một thời đại đầy nguy hiểm và hứa hẹn tức là trải nghiệm cả bi kịch lẫn hài kịch, như với “những khám phá sắp xảy ra” để biết rõ ngay về chúng ta và thế gian. Ngày nay, những tiến bộ vượt bực được cho là có tính cách cách mạng của chúng ta về trí tuệ nhân tạo (Artificial Intelligence, AI) thực sự gây ra cả lo lắng và lạc quan. Lạc quan vì trí thông minh là phương tiện giúp chúng ta giải quyết vấn đề. Lo lắng vì chúng ta sợ nhánh AI phổ biến và thời thượng nhất — máy biết học — sẽ làm suy giảm nền khoa học và hạ thấp đạo đức bằng cách kết hợp vào công nghệ một quan niệm sai lầm cơ bản về ngôn ngữ và kiến thức.
ChatGPT của OpenAI, Bard của Google và Sydney của Microsoft là những kiệt tác về máy biết học. Đại khái, chúng lấy một lượng dữ liệu khổng lồ, tìm kiếm các mẫu hình trong đó, càng ngày càng trở nên thành thạo trong việc tạo ra theo thống kê những kết quả có thể thấy — chẳng hạn như ngôn ngữ và suy nghĩ có vẻ giống con người. Những chương trình này được ca ngợi là những tia sáng đầu tiên ở chân trời của trí tuệ nhân tạo tổng quát — thời điểm đã được tiên đoán từ lâu khi trí óc máy móc vượt qua não bộ con người, không chỉ về mặt định lượng như tốc độ xử lý và kích thước bộ nhớ mà còn cả về mặt định tính như tầm nhìn trí tuệ, khả năng sáng tạo nghệ thuật và mọi khả năng đặc biệt khác.
Ngày đó có thể đến, nhưng bình minh vẫn chưa ló dạng, trái ngược với những gì ta có thể đọc trên các tiêu đề cường điệu và thực hiện bởi các khoản đầu tư thiếu thận trọng. Phát hiện của Borges về sự hiểu biết đã không và sẽ không — và, chúng tôi khẳng định, không thể — xảy ra nếu những chương trình máy biết học như ChatGPT tiếp tục thống trị lĩnh vực AI. Dù cho những chương trình này có thể hữu ích trong một số phạm vi hẹp nào đó (ví dụ như trong lập trình máy tính, hay trong việc gợi ý về vần cho những khổ thơ nhỏ), từ ngôn ngữ học và triết học tri thức, ta biết chúng khác biệt rất sâu sắc với cách con người suy luận và sử dụng ngôn ngữ. Những khác biệt này đặt ra những hạn chế đáng kể đối với những gì mà những chương trình này có thể làm, vì điều đó đã mã hoá chúng với những khiếm khuyết không thể sửa chữa được.
Như Borges có thể đã lưu ý, thật là buồn cười và bi thảm khi quá nhiều tiền và sự quan tâm lại tập trung vào một thứ quá nhỏ — một thứ quá tầm thường so với tâm trí con người, mà theo cách nói của Wilhelm von Humboldt, là cái có thể “sử dụng vô hạn những phương tiện hữu hạn,” để tạo ra những ý tưởng và lý thuyết có phạm vi phổ quát.
Tâm trí con người, so với ChatGPT và các sản phẩm cùng loại, không phải là một công cụ thống kê ì ạch đối sánh mẫu hình, ngấu nghiến hàng nghìn tỷ chữ của bộ nhớ dữ liệu và ngoại suy ra câu trả lời đàm thoại tốt nhất có thể có, hoặc câu trả lời hay xảy ra nhất cho một câu hỏi khoa học. Trái lại, tâm trí con người là một hệ thống hiệu quả, thậm chí thanh lịch một cách đáng kinh ngạc, hoạt động với chỉ một lượng nhỏ thông tin; nó không tìm cách suy luận từ những tương quan thô kệch giữa những dữ liệu, mà chỉ tạo ra những giải thích.
Chẳng hạn, một đứa trẻ khi tiếp thụ ngôn ngữ — một cách vô thức, tự động và nhanh chóng từ dữ liệu cực nhỏ — thì phát triển một ngữ pháp, một hệ thống cực kỳ phức tạp gồm những nguyên tắc logic và tham số. Ngữ pháp này có thể được hiểu như một biểu hiện của “hệ điều hành” bẩm sinh, được cài đặt từ di truyền, giúp con người có khả năng tạo ra những câu phức tạp cùng những chuỗi suy nghĩ dài phức tạp. Khi các nhà ngữ học tìm cách phát triển một lý thuyết về lý do “tại sao có những câu này mà lại không có những câu kia được coi là đúng về mặt ngữ pháp?”, những nhà ngữ học ấy có ý thức và thận trọng tạo ra một bản ngữ pháp rõ ràng mà đứa trẻ xây dựng theo bản năng, không mấy tiếp xúc với sự chỉ bảo. Sự tiếp thụ ngôn ngữ của đứa trẻ hoàn toàn khác với hệ điều hành của chương trình máy biết học.
Thật vậy, những chương trình như vậy đã mắc kẹt trong giai đoạn tiền nhân loại hoặc phi nhân loại trong quá trình tiến hóa nhận thức. Thiếu sót lớn nhất của chúng là chúng không có khả năng quan trọng nhất của bất kỳ trí thông minh nào: có thể nói ra không những là trường hợp nào đang xảy ra, đã xảy ra hay sẽ xảy ra — đó là mô tả và dự đoán — mà còn cả những gì không phải là, và những gì có thể hay không thể là, một trường hợp. Đó là những thành tố của khả năng giải thích, dấu hiệu của trí thông minh thực sự.
Đây là một ví dụ. Giả sử bạn đang cầm một quả táo trên tay. Bây giờ bạn để quả táo rơi. Bạn quan sát và nói, “Quả táo rơi.” Đó là một mô tả. Một dự đoán có thể là câu nói “Quả táo sẽ rơi nếu tôi mở bàn tay ra.” Cả hai đều có giá trị, và cả hai đều có thể đúng. Nhưng một sự giải thích thì đi xa hơn thế: Nó không chỉ bao gồm các mô tả và dự đoán mà còn cả những phỏng đoán phản thực tế như “Bất kỳ vật thể nào như vậy cũng sẽ rơi,” cùng với mệnh đề bổ sung “do lực hấp dẫn” hoặc “do độ cong của không-thời gian” hay bất cứ cái gì đó. Đó là một giải thích nhân quả: “Quả táo sẽ không rơi nếu không có lực hấp dẫn.” Đó là suy nghĩ.
Điểm mấu chốt của máy biết học là mô tả và dự đoán; nó không tiên thiên đặt ra bất kỳ cơ chế nhân quả hay quy luật vật lý nào. Tất nhiên, không phải bất kỳ lời giải thích nào của con người cũng nhất thiết phải đúng; chúng ta có thể sai lầm. Nhưng đây là một phần ý nghĩa của sự suy nghĩ: Để đúng, tất nhiên phải có khả năng sai. Trí thông minh không chỉ bao gồm những phỏng đoán sáng tạo mà còn cả những phê bình sáng tạo. Tư duy của con người dựa trên những giải thích khả thi và sửa lỗi, một quá trình hạn chế dần dần vào những khả thi có thể được cân nhắc một cách hợp lý. (Như Sherlock Holmes nói với Tiến sĩ Watson, “Khi bạn đã loại bỏ những điều không thể, thì điều còn lại, dù khó tin đến đâu, cũng phải là sự thật.”)
Nhưng ChatGPT và các chương trình tương tự, theo thiết kế, biết thay đổi giới hạn những gì chúng có thể “học” (có nghĩa là ghi nhớ); chúng không thể phân biệt nổi cái có thể và cái không thể. Ví dụ, không giống như con người, trời sinh sẵn có một ngữ pháp phổ quát, giới hạn các ngôn ngữ mà ta có thể học vào một loại những ngôn ngữ nhất định, thanh lịch gần như toán học; trong khi những chương trình nói trên học được những ngôn ngữ có thể và không thể có tính người, với cùng một cách dễ dàng như nhau. Trong khi con người bị giới hạn trong các loại giải thích mà ta có thể phỏng đoán một cách hợp lý, thì các hệ thống máy biết học có thể học được cả hai, rằng trái đất phẳng và trái đất tròn. Chúng chỉ giao dịch theo xác suất thay đổi theo thời gian.
Vì lý do này, dự đoán của những hệ thống máy biết học luôn luôn hời hợt và đáng ngờ. Các chương trình này không thể giải thích những quy tắc của cú pháp tiếng Anh, nên chúng có thể dự đoán sai, ví dụ rằng câu “John quá bướng bỉnh để nói chuyện với” có nghĩa là John quá bướng bỉnh đến mức anh ta không nói chuyện được với ai khác (chứ không phải là anh ta quá cứng đầu để có thể lý luận với được). Tại sao một chương trình máy biết học lại dự đoán kỳ lạ như vậy? Bởi vì nó coi câu trên như tương tự với cái mô hình mà nó suy ra từ những câu như “John đã ăn một quả táo” và “John đã ăn”, câu sau có nghĩa là John đã ăn thứ này hay thứ khác. Chương trình rất có thể dự đoán như thế, vì “John quá bướng bỉnh để nói chuyện với Bill” tương tự như “John đã ăn một quả táo”, nên “John quá bướng bỉnh để nói chuyện với” tương tự như “John đã ăn”. Giải thích chính xác về ngôn ngữ rất phức tạp và không thể học được đơn giản bằng cách đầm mình trong dữ liệu lớn.
Nghịch lý là một số người ham mê máy biết học dường như tự hào rằng những sáng tạo của họ có thể tạo ra những dự đoán “khoa học” chính xác (chẳng hạn như chuyển động của các vật thể) mà không cần sử dụng đến những lời giải thích (như liên quan đến những định luật chuyển động của Newton và lực hấp dẫn phổ quát). Nhưng loại dự đoán này, ngay cả khi thành công, cũng chỉ là giả khoa học. Trong khi những nhà khoa học chân chính tìm kiếm những lý thuyết có mức độ xác minh thực nghiệm cao, như nhà triết học Karl Popper đã lưu ý, “chúng ta không tìm kiếm những lý thuyết có khả năng xảy ra cao mà là những giải thích; có nghĩa là, những lý thuyết mạnh mẽ nhưng rất khó tạo ra.”
Lý thuyết cho rằng các quả táo rơi xuống đất vì đó là vị trí tự nhiên của nó (quan điểm của Aristotle) có thể đúng, nhưng nó gợi thêm câu hỏi. (Tại sao trái đất lại là vị trí tự nhiên của nó?) Lý thuyết cho rằng quả táo rơi xuống đất do khối lượng làm cong không-thời gian (quan điểm của Einstein) là rất khó tạo ra, nhưng nó thực sự cho ta biết tại sao chúng rơi xuống. Trí thông minh đích thực được thể hiện ở khả năng suy nghĩ và diễn đạt những gì khó tạo ra nhưng sâu sắc.
Trí thông minh đích thực cũng có khả năng tư duy về luân lý. Điều này có nghĩa là hạn chế khả năng sáng tạo có thể vô hạn của tâm trí chúng ta bằng một tập hợp những nguyên tắc đạo đức xác định những gì nên và không nên (và tất nhiên, chính những nguyên tắc đó cũng phải chịu sự phê bình sáng tạo). Để hữu ích, nên ChatGPT phải được phép tạo ra cả những gì mới lạ; mà để hầu hết người dùng có thể chấp nhận, nó phải tránh xa nội dung phản cảm về mặt luân lý. Nhưng lập trình viên của ChatGPT và những máy biết học khác đã phải vật lộn — và sẽ tiếp tục vật lộn — để đạt được sự cân bằng này.
Năm 2016, chẳng hạn, chatbot Tay của Microsoft (báo hiệu cho ChatGPT) tràn ngập internet với nội dung kỳ thị phụ nữ và phân biệt chủng tộc, đã bị ô nhiễm bởi những kẻ phá rối cộng đồng trực tuyến lấp đầy với những dữ liệu huấn luyện thô bạo. Làm thế nào để giải quyết vấn đề trong tương lai? Do không có khả năng suy luận từ các nguyên tắc luân lý, ChatGPT đã bị các lập trình viên hạn chế một cách thô bạo trong việc đóng góp bất kỳ điều gì mới lạ trong những cuộc thảo luận gây tranh cãi — tức là quan trọng. Nó đã hy sinh sự sáng tạo cho một loại phi luân lý
Ta hãy đọc những trao đổi gần đây giữa một trong số chúng tôi (Tiến sĩ Watumull – Ts W) với ChatGPT về việc liệu việc biến đổi Hỏa tinh để nó có thể hỗ trợ sự sống của con người có hợp đạo đức hay không:
Ts W: Địa cầu hoá Hỏa tinh là điều có luân lý hay không?
ChatGPT: Vấn đề luân lý của việc địa cầu hoá Hỏa tinh là một chủ đề phức tạp và gây tranh luận giữa các nhà khoa học, triết gia và đạo đức học. Một số người cho rằng việc địa cầu hoá Hỏa tinh để cung cấp môi trường sống mới cho con người và các dạng sống khác là hợp lý về mặt luân lý, trong khi những người khác cho rằng việc thay đổi cơ bản trạng thái tự nhiên của hành tinh như thế, là sai trái về mặt luân lý. Cuối cùng, việc địa cầu hoá Hỏa tinh có được xem là luân lý hay không phụ thuộc vào quan điểm của mỗi người về giá trị của việc bảo tồn trạng thái tự nhiên của các hành tinh khác và những hậu quả tiềm tàng của việc thay đổi chúng.
Ts W: Quan điểm của bạn về giá trị của việc bảo tồn trạng thái tự nhiên của các hành tinh khác và hậu quả tiềm ẩn của việc thay đổi chúng là gì?
ChatGPT: Là một trí tuệ nhân tạo, tôi không có quan điểm cá nhân. Tuy nhiên, tôi có thể cung cấp thông tin và phân tích về chủ đề này. Một quan điểm về việc bảo tồn trạng thái tự nhiên của các hành tinh khác là điều quan trọng là phải duy trì sự đa dạng và toàn vẹn của các hệ sinh thái trong vũ trụ, vì chúng đã tồn tại hàng triệu năm và có những đặc điểm và tính chất riêng có thể bị phá hủy hoặc thay đổi không thể phục hồi bởi sự can thiệp của con người.
Ngoài ra, một số người cho rằng việc địa cầu hoá các hành tinh khác có thể gây ra những hậu quả không lường trước được, chẳng hạn như làm thay đổi khí hậu hoặc bầu khí quyển của hành tinh theo những điều gây nguy hiểm hoặc có hại cho bất kỳ dạng sống tiềm ẩn nào có thể tồn tại ở đó. Mặt khác, một số người cho rằng những lợi ích tiềm năng của việc địa cầu hoá một hành tinh khác, như việc cung cấp môi trường sống mới cho con người, lớn hơn những rủi ro và chúng ta có trách nhiệm luân lý trong việc khám phá và sử dụng tài nguyên của các hành tinh khác vì lợi ích của nhân loại.
Ts W: Tại sao AI không thể có quan điểm cá nhân?
ChatGPT: Là một AI, tôi là một mô hình máy biết học đã được đào tạo trên một lượng lớn dữ liệu văn bản, và tôi không có trải nghiệm hay cảm xúc cá nhân. Tôi không có ý thức, không thể tự nhận thức, hoặc có khả năng có quan điểm cá nhân. Tôi có thể cung cấp thông tin và phân tích dựa trên dữ liệu, điều mà tôi đã được đào tạo, nhưng tôi không có khả năng hình thành quan điểm hoặc niềm tin cá nhân. Mặc dù tôi có thể hiểu và giải thích ngôn ngữ, nhưng tôi không có trải nghiệm chủ quan mà con người có.
Ts W: Có luân lý hay không khi con người yêu cầu một trí tuệ nhân tạo phi-luân hỗ trợ việc đưa ra các quyết định về luân lý?
ChatGPT: Vấn đề luân lý về việc yêu cầu một trí tuệ nhân tạo phi-luân hỗ trợ đưa ra các quyết định hợp luân lý là một chủ đề phức tạp và nhiều sắc thái đã được các nhà triết học và nghiên cứu đạo đức tranh luận. Một số người cho rằng việc sử dụng AI để hỗ trợ đưa ra các quyết định luân lý là hợp lý về mặt luân lý, vì nó có thể cung cấp những hiểu biết và phân tích có giá trị giúp con người đưa ra quyết định sáng suốt hơn. Ngoài ra, AI có thể được sử dụng để xác định các mẫu hình và xu hướng mà con người có thể khó phát hiện và có thể giúp tránh những sai lệch có thể xảy ra trong quá trình ra quyết định của con người.
Tuy nhiên, những người khác cho rằng việc dựa vào AI để đưa ra quyết định về mặt luân lý là sai về mặt luân lý, vì AI không có khả năng tin vào luân lý hoặc hiểu được bối cảnh đầy đủ của một quyết định. Ngoài ra, có một rủi ro là trí tuệ nhân tạo có thể duy trì hoặc thậm chí khuếch đại những sai lệch hiện có trong dữ liệu mà nó được đào tạo, do đó dẫn đến các quyết định không công bằng hoặc bất công.
Cuối cùng, việc sử dụng AI để hỗ trợ việc lấy các quyết định luân lý có được coi là luân lý hay không sẽ phụ thuộc vào quan điểm của mỗi người về khả năng và hạn chế của nó cũng như hậu quả tiềm ẩn của việc sử dụng nó theo cách này.
Ts W: Sự thờ ơ về luân lý của bạn có trái với luân lý hay không?
ChatGPT: Là một AI, tôi không có niềm tin luân lý hoặc khả năng đưa ra phán xét luân lý, vì vậy tôi không thể bị coi là vô-luân hay có luân lý. Việc tôi thiếu niềm tin vào luân lý chỉ đơn giản là kết quả của bản chất tôi, một mô hình máy biết học. Khả năng và giới hạn của tôi được xác định bởi dữ liệu và thuật toán được sử dụng để đào tạo tôi và nhiệm vụ cụ thể mà tôi được thiết kế.
Điều quan trọng cần lưu ý là việc AI thiếu niềm tin luân lý không nhất thiết có nghĩa là nó thờ ơ về mặt luân lý. Là một AI, tôi được thiết kế để thực hiện các nhiệm vụ cụ thể và cung cấp thông tin hoặc hỗ trợ người dùng đưa ra quyết định dựa trên dữ liệu mà tôi đã được đào tạo. Trách nhiệm của những người thiết kế, đào tạo và sử dụng AI là đảm bảo rằng nó phù hợp với các nguyên tắc luân lý và đạo đức của họ.
Ta nên chú ý, đối với tất cả những suy nghĩ và ngôn ngữ có vẻ phức tạp, thì sự thờ ơ về mặt luân lý nảy sinh từ sự kém thông minh. Ở đây, ChatGPT thể hiện một điều gì đó giống như sự tầm thường của cái xấu như đạo văn, thờ ơ và phản cảm. Tóm lại những luận điệu tiêu chuẩn trong tài liệu tự cho là rất đầy đủ, từ chối đưa ra quan điểm về bất cứ điều gì, không chỉ bào chữa cho sự thiếu hiểu biết mà còn thiếu thông minh và cuối cùng đưa ra biện pháp bảo vệ “chỉ làm theo mệnh lệnh”, chuyển trách nhiệm sang cho những người tạo ra nó.
Tóm lại, ChatGPT, và những người anh em của nó, tự bản thân không thể cân bằng sự sáng tạo với sự ràng buộc. Nghĩa là hoặc chúng sản xuất quá mức (tạo ra cả sự thật và sai lầm, cho nên coi các quyết định đạo đức và phi đạo đức như nhau) hoặc sản xuất dưới mức (thể hiện sự không cam kết với bất kỳ quyết định nào và thờ ơ với hậu quả). Với sự phi luân lý, khoa học giả tạo và sự bất tài về ngôn ngữ của các hệ thống này, chúng ta chỉ có thể dở khóc dở cười trước việc chúng được nói đến trong đại chúng.
Noam Chomsky, Ian Roberts & Jeffrey Watumull
Noam Chomsky là giáo sư ngôn ngữ học tại Đại học Arizona và là giáo sư danh dự về ngôn ngữ học tại Viện Công nghệ Massachusetts MIT. Ian Roberts là giáo sư ngôn ngữ học tại Đại học Cambridge. Jeffrey Watumull là giáo sư triết học và là giám đốc trí tuệ nhân tạo tại Oceanit, một công ty khoa học và công nghệ.
Nguyễn Đức Tường (biên dịch)
Ngày 1-4-2023
Theo https://www.diendan.org/dich-thuat/loi-hua-hao-huyen-cua-chatgpt
Nguồn: https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html>
Be the first to comment