Tuy nhiên, đi cùng với khả năng không thể bàn cãi của AI là những huyễn tưởng và lo sợ cho tương lai của nhân loại. Mối nguy hiểm thực sự không phải là máy tính thông minh hơn chúng ta, mà là chúng ta nghĩ rằng máy tính thông minh hơn mình, và do đó tin tưởng để máy tính thay mình đưa ra quyết định quan trọng. Máy tính hoàn toàn có thể mắc những sai lầm trầm trọng, bởi cách chúng xử lý dữ liệu không giống cách con người tư duy.
Để giải thích cặn kẽ, gỡ giải hiểu lầm, xóa tan huyễn tưởng, cuốn sách “Huyễn tưởng về trí tuệ nhân tạo” của Gary Smith (NXB Thế giới) được phát hành tháng 5/2021 bởi Công ty Cổ phần Văn hóa và Truyền thông Nhã Nam.
“Huyễn tưởng về trí tuệ nhân tạo” được chia thành 12 chương, bao gồm nhiều dẫn chứng thực tế từ lịch sử như cuộc bầu cử tổng thống Mỹ năm 2008, AI Watson của IBM và nhiều dự án trí tuệ nhân tạo nổi tiếng khác với mục đích làm rõ cách trí tuệ nhân tạo xử lý thông tin, cho kết quả cuối cùng và chỉ ra sự khác biệt giữa trí tuệ nhân tạo và bộ não con người, từ đó cho thấy những rủi ro của việc quá tin tưởng vào kết quả của máy tính.
Trong 4 chương đầu, tác giả đã lấy rất nhiều ví dụ thực tế để giải thích một cách dễ hiểu cách thức trí tuệ nhân tạo hoạt động và cách chúng đưa ra kết quả cuối cùng. Tác giả khẳng định robot đã vượt xa con người trong các nhiệm vụ đơn điệu lặp đi lặp lại, chúng có bộ nhớ tốt hơn, thực hiện các phép tính chính xác hơn và không biết mệt mỏi. Nhưng trí tuệ nhân tạo không được lập trình để mô phỏng bộ não con người và trí tuệ nhân tạo không thể tư duy, lập luận và loại suy. Từ đó, tác giả khẳng định cho đến giờ máy tính có trí thông minh bao quát đủ để cạnh tranh với con người chưa tồn tại.
Trong hai chương tiếp theo, bằng việc nhắc tới “khai phá dữ liệu”, một sự thật được chứng minh là việc khai phá dữ liệu dù thỉnh thoảng sẽ có một khám phá tri thức thực sự, với số lượng các biến giải thích được xem xét càng lớn thì càng có nhiều khả năng một mối quan hệ được khám phá chỉ là trùng hợp ngẫu nhiên, có tính tạm thời.
Trong các chương còn lại của cuốn sách, tác giả đã đưa ra nhiều mô hình tính toán trong nhiều lĩnh vực như tài chính, chính trị, kinh tế… để chứng minh rằng bằng chứng thống kê là không đủ để phân biệt giữa kiến thức thật và giả. Máy tính không thể đánh giá chính xác sự tương quan đó là ngẫu nhiên hay thực sự có ý nghĩa. Công việc đó chỉ dành cho trí tuệ của con người.
Kết lại, trí tuệ của con người hoạt động khác biệt so với trí tuệ nhân tạo, bởi vậy không thể nói trí tuệ nhân tạo là thông minh. Robot vượt trội về bộ nhớ, tính chính xác và sức bền nhưng chúng vẫn tồn tại nhiều khuyết điểm: không biết tư duy, không thể loại suy và không thể phân biệt được dữ liệu tốt – xấu, vô nghĩa – có nghĩa. Con người cần tới máy tính để xử lý lượng thông tin lớn, nhưng cũng cần chính trí tuệ của con người để đưa ra những đánh giá cuối cùng về kết quả mà máy tính trả về.
Gary Smith là giáo sư trường Cao đẳng Pomona, Mỹ. Ông tham gia rất nhiều dự án nghiên cứu vạch ra sự đáng ngờ trong việc sử dụng dữ liệu trong phân tích thống kê.
Ông là tác giả của 8 cuốn sách giáo khoa, 7 cuốn sách thương mại, gần 100 bài báo học thuật và 7 chương trình phần mềm về kinh tế, tài chính và thống kê. Ngoài việc giảng dạy tại trường Cao đẳng Pomona, ông còn là chuyên gia phân tích và tư vấn kinh tế.
Các cuốn sách nổi tiếng khác của ông như Standard Deviation: Flawed Assumptions (Độ lệch chuẩn: Giả định sai lầm), Tortured Data (Dữ liệu bị tra tấn) cũng cảnh báo về những nguy cơ nhầm lẫn giữa tương quan và nhân quả trong phân tích thống kê.
PetroTimes