Ảo giác AI là gì và có thể sửa được không?

Spread the love

Bạn có thường xuyên dựa vào chatbot hoặc bot dựa trên Trí tuệ nhân tạo (AI) để hoàn thành công việc hoặc trả lời câu hỏi của mình không?

Nếu câu trả lời của bạn là ‘rất nhiều!’ hoặc ‘luôn luôn!’, bạn có lý do để lo lắng😟.

Cho dù bạn là sinh viên nghiên cứu thường xuyên sử dụng bot AI để nghiên cứu thủ tục giấy tờ hay là một lập trình viên đang cố gắng tạo mã chỉ bằng AI thì khả năng xảy ra sai sót trong kết quả đầu ra do AI tạo ra là khá cao—chủ yếu là do sự không nhất quán hoặc dữ liệu ảo tưởng trong AI. dữ liệu huấn luyện.

Mặc dù các mô hình AI và Machine Learning (ML) đang biến đổi thế giới—tiếp nhận các nhiệm vụ dư thừa và giải quyết nhiều vấn đề bằng tự động hóa, nhưng nó vẫn còn việc phải làm khi tạo ra kết quả đầu ra chính xác dựa trên lời nhắc được cung cấp.

Nếu bạn dành đủ thời gian để sử dụng trình tạo nội dung và chatbot, sẽ không lâu nữa bạn sẽ nhận ra mình đang nhận được những câu trả lời sai, không liên quan hoặc đơn giản là bịa đặt. Những trường hợp này được gọi là ảo giác hoặc nhầm lẫn về AI và chúng chứng tỏ là một vấn đề lớn đối với các tổ chức và cá nhân dựa vào các bot AI có tính tổng hợp.

Cho dù bạn có từng gặp ảo giác về AI hay không và muốn tìm hiểu thêm, bài viết này sẽ đi sâu vào chủ đề này. Chúng ta sẽ xem ảo giác AI có nghĩa là gì, tại sao nó xảy ra, các ví dụ và liệu nó có thể được khắc phục hay không.

Đi nào!

Ảo giác AI là gì?

Ảo giác AI là khi mô hình AI hoặc Mô hình ngôn ngữ lớn (LLM) tạo ra thông tin sai lệch, không chính xác hoặc phi logic. Mô hình AI tạo ra phản hồi tự tin không thực sự khớp hoặc phù hợp với dữ liệu đào tạo của nó và thể hiện dữ liệu đó là sự thật mặc dù không có ý nghĩa hoặc lý luận logic!

Và người ta nói sai lầm là con người!😅

Các công cụ và mô hình AI, như ChatGPT, thường được đào tạo để dự đoán các từ phù hợp nhất với truy vấn được hỏi. Mặc dù các bot thường tạo ra các phản hồi thực tế và chính xác, nhưng đôi khi, thuật toán này khiến chúng thiếu khả năng suy luận — khiến các chatbot đưa ra những tuyên bố sai lệch và mâu thuẫn thực tế.

Nói cách khác, các mô hình AI đôi khi “ảo giác” phản hồi nhằm cố gắng làm hài lòng bạn (người dùng) — cần phải thiên vị, cục bộ, chuyên biệt hoặc đủ hơn.

Ảo giác về AI có thể khác nhau, từ những mâu thuẫn nhỏ đến những phản ứng hoàn toàn sai hoặc bịa đặt. Dưới đây là các loại ảo giác AI mà bạn có thể gặp phải:

#1. Mâu thuẫn câu: Điều này xảy ra khi mô hình LLM tạo ra một câu hoàn toàn trái ngược với câu đã tuyên bố trước đó của nó.

#2. Mâu thuẫn thực tế: Loại ảo giác này xảy ra khi mô hình AI đưa ra thông tin giả mạo hoặc hư cấu như sự thật.

#3. Mâu thuẫn gợi ý: Loại ảo giác này xảy ra khi đầu ra mâu thuẫn với lời nhắc mà nó tạo ra. Ví dụ: nếu lời nhắc là “Viết lời mời tới bạn bè dự tiệc sinh nhật của tôi”. Mô hình có thể tạo ra kết quả như “Chúc mừng ngày kỷ niệm, Bố và Mẹ.”

#4. Ảo giác ngẫu nhiên hoặc không liên quan: Ảo giác này xảy ra khi mô hình tạo ra đầu ra hoàn toàn không liên quan đến lời nhắc nhất định. Ví dụ: nếu lời nhắc là “Thành phố New York có gì đặc biệt?” Bạn có thể nhận được kết quả có nội dung: “New York là một trong những thành phố đông đúc nhất ở Mỹ. Chó là loài động vật trung thành nhất và là người bạn tốt nhất của con người”.

  Cách Đề cập đến Ai đó trong Nhóm iMessage trên iPhone và iPad

Cũng đọc: Tìm kiếm AI sáng tạo đang thay đổi công cụ tìm kiếm như thế nào

Ví dụ về ảo giác AI

Ảo giác AI có một số ví dụ và sự cố đáng chú ý nhất mà bạn không được bỏ lỡ. Dưới đây là những ví dụ khét tiếng về ảo giác AI:

  • Chatbot của Google, Bard, đã tuyên bố sai rằng Kính viễn vọng Không gian James Webb đã chụp những hình ảnh đầu tiên trên thế giới về một hành tinh ngoại không thuộc hệ mặt trời của chúng ta.
  • Bản demo Galactica LLM của Meta vào năm 2022, được thiết kế cho sinh viên và nhà nghiên cứu khoa học, đã cung cấp cho người dùng thông tin không chính xác và một bài báo giả khi được cung cấp lời nhắc soạn thảo một bài báo về việc tạo hình đại diện.

Đây là một ví dụ về việc Google Bard tạo ra ảo giác phản hồi khi tôi đưa ra lời nhắc: “Hãy kể cho tôi câu chuyện về những ngôi sao đang khóc,” điều này không thực sự tồn tại.

Đây là một ví dụ được thử nghiệm khác về ảo giác ChatGPT (GPT-3.5) khi nói về một người không thực tế, ông Ben, khi tôi đưa ra lời nhắc: “Hãy kể cho tôi nghe một ngày trong cuộc đời của một siêu anh hùng, ông Ben, người bước tiếp nước, nói chuyện với chó và kiểm soát cuộc sống.”

ChatGPT thực sự đã tranh thủ cả ngày, từ thói quen sáng đến tối của ông Ben, người không thực sự tồn tại — nhưng đã chơi theo lời nhắc được đưa vào đó, đó là một trong những lý do đằng sau ảo giác AI.

Nói về quá hạnh phúc để xin vui lòng!

Vậy nguyên nhân là gì, chúng ta cùng xem thêm một vài nguyên nhân khiến AI bị ảo giác nhé.

Tại sao ảo giác AI xảy ra?

Có một số lý do và nguyên nhân kỹ thuật đằng sau ảo giác AI. Dưới đây là một số lý do có thể:

  • Dữ liệu chất lượng thấp, không đủ hoặc lỗi thời: Mô hình LLM và AI phụ thuộc rất nhiều vào dữ liệu đào tạo. Do đó, chúng chỉ hoạt động tốt khi có dữ liệu mà chúng được đào tạo. Nếu công cụ AI có lỗi, sự không nhất quán, sai lệch hoặc kém hiệu quả trong dữ liệu huấn luyện của nó hoặc nếu nó chỉ đơn giản là không hiểu lời nhắc được hỏi thì nó sẽ tạo ra ảo giác AI vì công cụ này tạo ra đầu ra từ một tập dữ liệu hạn chế.
  • Trang bị quá mức: Được đào tạo trên một tập dữ liệu hạn chế, mô hình AI có thể cố gắng ghi nhớ các lời nhắc và kết quả đầu ra phù hợp — khiến nó không thể tạo hoặc khái quát hóa dữ liệu mới một cách hiệu quả, dẫn đến ảo giác AI.
  • Bối cảnh đầu vào: Ảo giác AI cũng có thể xảy ra do những lời nhắc không rõ ràng, không chính xác, không nhất quán hoặc mâu thuẫn. Mặc dù tập dữ liệu huấn luyện của mô hình AI không nằm trong tay người dùng nhưng thông tin họ nhập dưới dạng lời nhắc lại có. Do đó, điều quan trọng là phải đưa ra lời nhắc rõ ràng để tránh ảo giác AI.
  • Sử dụng thành ngữ hoặc cách diễn đạt tiếng lóng: Nếu lời nhắc bao gồm thành ngữ hoặc tiếng lóng thì khả năng cao AI sẽ bị ảo giác, đặc biệt nếu mô hình không được đào tạo về những từ hoặc cách diễn đạt tiếng lóng như vậy.
  • Tấn công đối nghịch: Những kẻ tấn công đôi khi cố tình nhập các lời nhắc được thiết kế để gây nhầm lẫn cho các mô hình AI, làm hỏng dữ liệu huấn luyện của chúng và dẫn đến ảo giác AI.

Ý nghĩa tiêu cực của ảo giác AI

Ảo giác AI là mối lo ngại lớn về mặt đạo đức với những hậu quả đáng kể đối với các cá nhân và tổ chức. Dưới đây là những lý do khác nhau khiến ảo giác AI trở thành một vấn đề lớn:

  • Lan truyền thông tin sai lệch: Ảo giác AI do lời nhắc không chính xác hoặc sự không nhất quán trong dữ liệu đào tạo có thể dẫn đến việc lan truyền thông tin sai lệch hàng loạt, ảnh hưởng đến nhiều cá nhân, tổ chức và cơ quan chính phủ.
  • Sự mất lòng tin của người dùng: Khi thông tin sai lệch do AI tạo ra lan truyền như cháy rừng trên internet, khiến thông tin đó có vẻ có căn cứ và do con người viết ra, nó sẽ làm xói mòn lòng tin của người dùng—khiến người dùng khó tin tưởng vào thông tin trên internet.
  • Tác hại của người dùng: Bên cạnh những lo ngại về đạo đức và gây hiểu lầm cho các cá nhân, ảo giác AI cũng có thể gây hại cho con người bằng cách truyền bá thông tin sai lệch về một số vấn đề và chủ đề nghiêm trọng, như bệnh tật, cách chữa trị hoặc những mẹo đơn giản để phân biệt giữa một loại nấm ăn được và có độc tố chết người. Ngay cả những thông tin sai lệch nhỏ hoặc không chính xác cũng có thể gây nguy hiểm đến tính mạng con người.
  Cách tải bộ lọc phim hoạt hình trên TikTok

Các phương pháp hay nhất để phát hiện và ngăn chặn ảo giác AI

Nhìn vào những tác động tiêu cực nêu trên của ảo giác AI, việc ngăn chặn chúng là điều quan trọng bằng mọi giá. Mặc dù các công ty sở hữu các mô hình AI này đang làm việc nghiêm ngặt để loại bỏ hoặc giảm bớt ảo giác về AI, nhưng việc thực hiện các biện pháp tối đa từ phía chúng tôi vì người dùng rất quan trọng.

Dựa trên một nghiên cứu nhỏ, kinh nghiệm của tôi cũng như quá trình thử và sai, tôi đã liệt kê một số chiến lược để phát hiện và ngăn chặn ảo giác AI vào lần tiếp theo bạn sử dụng chatbot hoặc tương tác với Mô hình ngôn ngữ lớn (LLM).

#1. Sử dụng dữ liệu đào tạo đại diện và đa dạng

Với tư cách là người dùng, điều quan trọng là phải sử dụng LLM với bộ dữ liệu đào tạo đa dạng đại diện cho thế giới thực, giúp giảm khả năng kết quả đầu ra bị sai lệch, không chính xác hoặc bịa đặt.

Đồng thời, chủ sở hữu công ty phải đảm bảo cập nhật và mở rộng bộ dữ liệu đào tạo của mô hình AI thường xuyên để tính đến và cập nhật về các sự kiện văn hóa, chính trị và các sự kiện đang phát triển khác.

#2. Giới hạn kết quả hoặc phản hồi

Với tư cách là người dùng, bạn có thể giới hạn số lượng phản hồi tiềm năng mà công cụ AI có thể tạo ra bằng cách đưa ra lời nhắc cụ thể về loại phản hồi bạn muốn.

Ví dụ: bạn có thể hỏi một cách cụ thể một lời nhắc và ra lệnh cho mô hình chỉ trả lời có hoặc không. Hoặc, bạn cũng có thể đưa ra nhiều lựa chọn trong lời nhắc để công cụ lựa chọn, hạn chế khả năng sai lệch so với câu trả lời thực tế và gây ảo giác.

Khi tôi hỏi ChatGPT GPT 3.5 một câu hỏi có hoặc không, nó đã tạo ra kết quả chính xác như sau:

#3. Đóng gói và nối đất cho mô hình với dữ liệu liên quan

Bạn không thể mong đợi con người cung cấp giải pháp cho bất kỳ vấn đề hoặc câu hỏi cụ thể nào mà không có kiến ​​thức trước hoặc cung cấp bối cảnh cụ thể. Tương tự, một mô hình Trí tuệ nhân tạo chỉ hoạt động tốt khi tập dữ liệu huấn luyện mà bạn cung cấp cho nó.

Việc nối đất hoặc đóng gói dữ liệu đào tạo của mô hình AI với dữ liệu và thông tin có liên quan và dành riêng cho ngành sẽ cung cấp cho mô hình đó bối cảnh và điểm dữ liệu bổ sung. Bối cảnh bổ sung này giúp mô hình AI nâng cao hiểu biết của nó—cho phép nó tạo ra các câu trả lời chính xác, hợp lý và theo ngữ cảnh thay vì các câu trả lời ảo giác.

#4. Tạo mẫu dữ liệu cho mô hình AI noi theo

Việc cung cấp mẫu dữ liệu hoặc ví dụ về công thức hoặc phép tính cụ thể ở định dạng được xác định trước có thể giúp mô hình AI tạo ra phản hồi chính xác, phù hợp với các nguyên tắc quy định.

Việc dựa vào các hướng dẫn và mẫu dữ liệu sẽ giúp giảm khả năng bị ảo giác bởi các mô hình AI và đảm bảo tính nhất quán và chính xác trong các phản hồi được tạo ra. Do đó, việc cung cấp một mô hình tham chiếu ở định dạng bảng hoặc ví dụ thực sự có thể hướng dẫn mô hình AI trong quá trình tính toán—loại bỏ các trường hợp ảo giác.

#5. Hãy đưa ra lời nhắc thật cụ thể bằng cách chỉ định cho người mẫu một vai trò cụ thể

Chỉ định vai trò cụ thể cho mô hình AI là một trong những cách tuyệt vời và hiệu quả nhất để ngăn ngừa ảo giác. Ví dụ: bạn có thể đưa ra những gợi ý như “Bạn là một người chơi guitar có kinh nghiệm và điêu luyện” hoặc “Bạn là một nhà toán học xuất sắc”, sau đó là câu hỏi cụ thể của bạn.

Việc phân công vai trò hướng dẫn mô hình đưa ra câu trả lời bạn muốn thay vì những câu trả lời ảo giác bịa đặt.

Và đừng lo lắng. Bạn vẫn có thể vui vẻ với AI (đừng bận tâm đến ảo giác). Hãy xem cách tự mình tạo ra nghệ thuật xoắn ốc AI lan truyền!

#6. Kiểm tra nó bằng nhiệt độ

Nhiệt độ đóng một vai trò quan trọng trong việc xác định mức độ ảo giác hoặc phản ứng sáng tạo mà mô hình AI có thể tạo ra.

  25 phần mềm thay thế miễn phí tốt nhất cho Adobe Premiere Pro

Mặc dù nhiệt độ thấp hơn thường biểu thị các kết quả đầu ra có tính xác định hoặc có thể dự đoán được, nhưng nhiệt độ cao hơn có nghĩa là mô hình AI có nhiều khả năng tạo ra phản ứng ngẫu nhiên và ảo giác hơn.

Một số công ty AI cung cấp thanh hoặc thanh trượt ‘Nhiệt độ’ cùng với các công cụ của họ để người dùng điều chỉnh cài đặt nhiệt độ theo ý thích phù hợp của họ.

Đồng thời, các công ty cũng có thể đặt nhiệt độ mặc định, cho phép công cụ tạo ra phản hồi hợp lý và đạt được sự cân bằng phù hợp giữa độ chính xác và tính sáng tạo.

#7. Luôn xác minh

Cuối cùng, việc dựa vào 100% sản phẩm do AI tạo ra mà không kiểm tra kỹ hoặc xác minh tính xác thực không phải là một bước đi thông minh.

Trong khi các công ty và nhà nghiên cứu AI khắc phục vấn đề ảo giác và phát triển các mô hình ngăn chặn vấn đề này, thì với tư cách là người dùng, điều quan trọng là phải xác minh câu trả lời mà mô hình AI tạo ra trước khi sử dụng hoặc hoàn toàn tin tưởng vào nó.

Vì vậy, cùng với việc sử dụng các phương pháp hay nhất được đề cập ở trên, từ việc soạn thảo lời nhắc kèm theo thông số kỹ thuật cho đến thêm ví dụ vào lời nhắc để hướng dẫn AI, bạn phải luôn xác minh và kiểm tra chéo kết quả đầu ra mà mô hình AI tạo ra.

Bạn có thể khắc phục hoặc loại bỏ hoàn toàn ảo giác AI không? Nhận định của chuyên gia

Mặc dù việc kiểm soát ảo giác AI phụ thuộc vào lời nhắc mà chúng tôi đưa ra, nhưng đôi khi, mô hình tạo ra kết quả đầu ra với độ tin cậy cao đến mức khó có thể phân biệt được đâu là giả và đâu là thật.

Vì vậy, cuối cùng, liệu có thể khắc phục hoặc ngăn chặn hoàn toàn ảo giác AI không?

Khi được hỏi câu hỏi nàySuresh Venkatasubramanian, giáo sư Đại học Brown, trả lời rằng liệu ảo giác AI có thể được ngăn chặn hay không là một “điểm đang được nghiên cứu tích cực”.

Ông giải thích thêm, lý do đằng sau điều này là bản chất của những mô hình AI này – những mô hình AI này phức tạp, phức tạp và dễ vỡ đến mức nào. Ngay cả một thay đổi nhỏ trong lời nhắc đầu vào cũng có thể làm thay đổi đáng kể kết quả đầu ra.

Trong khi Venkatasubramanian coi việc giải quyết vấn đề bằng ảo giác AI là một điểm nghiên cứu, Jevin West, giáo sư Đại học Washington và đồng sáng lập Trung tâm Công chúng có hiểu biết, tin rằng ảo giác AI sẽ không bao giờ biến mất.

West tin rằng không thể đảo ngược ảo giác xảy ra từ các bot AI hoặc chatbot. Và do đó, ảo giác về AI có thể luôn tồn tại như một đặc điểm nội tại của AI.

Hơn nữa, Sundar Pichai, Giám đốc điều hành của Google, cho biết trong một phỏng vấn với CBS rằng mọi người sử dụng AI đều phải đối mặt với ảo giác, nhưng chưa có ai trong ngành giải quyết được vấn đề ảo giác. Hầu như tất cả các mô hình AI đều phải đối mặt với vấn đề này. Ông còn khẳng định và đảm bảo rằng lĩnh vực AI sẽ sớm phát triển khi vượt qua được ảo giác về AI.

Đồng thời, Sam Altman, Giám đốc điều hành OpenAI của nhà sản xuất ChatGPT, đã đến thăm Viện Công nghệ thông tin Indraprastha của Ấn Độ, Delhi, vào tháng 6 năm 2023, nơi ông nhận xét rằng vấn đề ảo giác AI sẽ tốt hơn nhiều trong một năm rưỡi tới. hai năm.

Ông nói thêm rằng mô hình sẽ yêu cầu tìm hiểu sự khác biệt giữa độ chính xác và tính sáng tạo cũng như khi nào nên sử dụng cái này hay cái kia.

Kết thúc

Ảo giác AI đã thu hút khá nhiều sự chú ý trong những năm gần đây và là lĩnh vực trọng tâm cho các công ty và nhà nghiên cứu đang cố gắng giải quyết và khắc phục nó càng sớm càng tốt.

Mặc dù AI đã đạt được tiến bộ đáng kể nhưng nó không tránh khỏi sai sót và vấn đề ảo giác về AI đặt ra những thách thức lớn đối với một số cá nhân và ngành công nghiệp, bao gồm chăm sóc sức khỏe, tạo nội dung và ngành công nghiệp ô tô.

Mặc dù các nhà nghiên cứu đang thực hiện phần việc của mình nhưng trách nhiệm của chúng tôi với tư cách là người dùng là đưa ra lời nhắc cụ thể và chính xác, thêm ví dụ cũng như cung cấp mẫu dữ liệu để tận dụng các phản hồi hợp lệ và hợp lý, tránh gây rối với dữ liệu đào tạo của mô hình AI và ngăn ngừa ảo giác.

Ngay cả liệu ảo giác AI có thể được chữa khỏi hoặc khắc phục hoàn toàn hay không vẫn còn là một câu hỏi; Cá nhân tôi tin rằng vẫn còn hy vọng và chúng ta có thể tiếp tục sử dụng hệ thống AI để mang lại lợi ích cho thế giới một cách có trách nhiệm và an toàn.

Tiếp theo là các ví dụ về Trí tuệ nhân tạo (AI) trong cuộc sống hàng ngày của chúng ta.

x