NGÀNH CNTT TUYỂN SINH NHIỀU CHỈ TIÊU NGÀNH CNTT, CNTT VIỆT NHẬT VÀ KHOA HỌC DỮ LIỆU

Tin tức

Vì sao AI chưa thể vượt qua trí tuệ con người?

on .

Bất chấp những tuyên bố từ các tên tuổi hàng đầu, các nhà nghiên cứu cho rằng những lỗi cơ bản trong các mô hình suy luận khiến robot chưa thể vượt qua trí tuệ của con người.

 

Đối với những CEO hàng đầu trong giới công nghệ hiện nay như Dario Amodei của Anthropic, Demis Hassabis của Google và Sam Alman của OpenAI, việc tuyên bố AI của họ là tốt nhất là chưa đủ. Cả ba gần đây đều phải khẳng định thêm rằng AI sẽ rất tốt, va thậm chí sẽ thay đổi tận gốc cấu trúc xã hội.

Tuy nhiên, một nhóm nghiên cứu ngày càng tăng, từ những người xây dựng, nghiên cứu và sử dụng AI hiện đại dang không tin vào những lời nói đó.

AI suy luận không toàn năng

Chỉ sau 3 năm ra mắt, trí tuệ nhân tạo đã bắt đầu có mặt trong nhiều hoạt động hàng ngày như học tập và làm việc. Nhiều người lo sợ rằng không lâu sau chúng sẽ đủ khả năng để thay thế con người.

Tuy nhiên, các mô hình AI mới hiện nay thực ra không thông minh như chúng ta vẫn tưởng. Phát hiện từ Apple, một trong những công ty công nghệ lớn nhất thế giới đã chứng minh điều này.

Cụ thể, trong một nghiên cứu có tên “Tư duy ảo tưởng” mới xuất bản, nhóm nghiên cứu của Apple khẳng định rằng các mô hình suy luận như Claude, DeepSeek-R1 và o3-mini thực chất không hề “động não” như tên gọi.

Bài báo của Táo khuyết được xây dựng dựa trên công trình trước đây của nhiều kỹ sư tương tự, cũng như nghiên cứu đáng chú ý từ cả giới học thuật và các công ty công nghệ lớn khác, bao gồm Salesforce.

Những thí nghiệm này cho thấy các AI suy luận — vốn được ca ngợi là bước tiếp theo hướng tới các tác nhân AI tự động, và cuối cùng là trí tuệ siêu việt — trong một số trường hợp lại kém giải quyết vấn đề hơn các chatbot AI cơ bản đã được ra mắt trước đó.

  Nghiên cứu mới của Apple về mô hình suy luận lớn cho thấy các mô hình AI thực chất không hề “động não” như tên gọi. Ảnh: OpenAI.

Nghiên cứu mới của Apple về mô hình suy luận lớn cho thấy các mô hình AI thực chất không hề “động não” như tên gọi. Ảnh: OpenAI. 

Cũng trong nghiên cứu, dù đang sử dụng chatbot AI hay mô hình suy luận, tất cả hệ thống đều thất bại hoàn toàn ở các tác vụ phức tạp hơn.

Các nhà nghiên cứu đề xuất từ suy luận nên được thay lại bằng “bắt chước”. Nhóm cho rằng những mô hình này chỉ đơn giản là ghi nhớ và lặp lại khuôn mẫu (pattern) một cách hiệu quả. Nhưng khi câu hỏi được thay đổi hoặc độ phức tạp tăng lên, chúng gần như ngã chồng lên nhau.

Đơn giản hơn, chatbot hoạt động tốt khi chúng có thể nhận diện và khớp mẫu, nhưng một khi đề bài trở nên quá phức tạp, chúng sẽ không thể xử lý được. “Mô hình suy luận tiên tiến (Large Reasoning Models - LRM) gặp phải hiện tượng sụp đổ hoàn toàn về yếu tố chính xác khi độ phức tạp vượt qua một ngưỡng nhất định”, nghiên cứu nhấn mạnh.

Điều này đi ngược với kỳ vọng của nhà phát triển, cho rằng vấn đề phức tạp sẽ được giải quyết khi càng có nhiều tài nguyên. “Nỗ lực suy luận của AI sẽ tăng lên theo độ phức tạp, nhưng chỉ đến một mức nào đó, rồi lại giảm dần, dù vẫn còn đủ ngân sách token (khả năng tính toán) để xử lý”, nghiên cứu bổ sung.

Tương lai thật sự của AI

Gary Marcus, nhà tâm lý học và tác giả sách người Mỹ, cho rằng phát hiện của Apple khá ấn tượng, nhưng không thật sự mới mà chỉ củng cố cho các nghiên cứu trước. Giáo sư danh dự ngành tâm lý học và khoa học thần kinh tại Đại học New York lấy ví dụ nghiên cứu năm 1998 của mình.

Trong đó, ông cho rằng mạng nơ-ron, tiền thân của mô hình ngôn ngữ lớn, có thể khái quát tốt trong phạm vi phân phối dữ liệu chúng đã được huấn luyện, nhưng thường sụp đổ khi gặp dữ liệu ngoài phân phối.

Tuy nhiên, ông Marcus cũng cho rằng mô hình LLM hay LRM đều có ứng dụng riêng, và hữu ích trong vài trường hợp.

Trong giới công nghệ, siêu trí tuệ được xem là giai đoạn phát triển tiếp theo của AI, nơi các hệ thống không chỉ đạt được khả năng suy nghĩ như con người (AGI) mà còn vượt trội về tốc độ, độ chính xác và mức độ nhận thức.

Bất chấp những hạn chế lớn, ngay cả những người chỉ trích AI cũng nhanh chóng bổ sung rằng cuộc hành trình hướng tới siêu trí tuệ máy tính vẫn hoàn toàn khả thi.

  Không chỉ là một giải pháp thay thế cho Google hay công cụ giúp làm bài tập về nhà, CEO của OpenAI Sam Altman từng cho rằng AI sẽ thay đổi sự tiến bộ của nhân loại. Ảnh: AA Photo.

Không chỉ là một giải pháp thay thế cho Google hay công cụ giúp làm bài tập về nhà, CEO của OpenAI Sam Altman từng cho rằng AI sẽ thay đổi sự tiến bộ của nhân loại. Ảnh: AA Photo. 

Jorge Ortiz, phó giáo sư kỹ thuật tại phòng thí nghiệm Rutgers, cho rằng việc phơi bày những hạn chế hiện tại có thể chỉ ra con đường để các công ty về AI vượt qua chúng.

Ortiz nêu ví dụ các phương pháp huấn luyện mới như đưa ra phản hồi từng bước về hiệu suất của mô hình, bổ sung thêm tài nguyên khi gặp các vấn đề khó, có thể giúp AI giải quyết các vấn đề lớn hơn và sử dụng phần mềm cơ bản tốt hơn.

Trong khi đó, Josh Wolfe, đồng sáng lập công ty đầu tư mạo hiểm Lux Capital, từ góc độ kinh doanh, dù hệ thống hiện tại có thể suy luận hay không, chúng vẫn sẽ tạo ra giá trị cho người dùng.

Ethan Mollick, giáo sư thuộc Đại học Pennsylvania cũng bày tỏ niềm tin các mô hình AI sẽ sớm khắc phục được những hạn chế này trong tương lai gần.

"Các mô hình ngày càng tốt hơn, và các cách tiếp cận AI mới liên tục được phát triển. Vì vậy tôi sẽ không ngạc nhiên nếu những hạn chế này được khắc phục trong tương lai gần", Mollick nói.

Anh Tuấn

Nguồn:  https://baomoi.com/vi-sao-ai-chua-the-vuot-qua-tri-tue-con-nguoi-c52557969.epi

 

Nguy cơ 'thoái hóa tư duy' vì lạm dụng AI

on .

Các nghiên cứu gần đây đã gióng lên hồi chuông cảnh báo về những hệ lụy khôn lường khi con người ngày càng phụ thuộc vào Trí tuệ nhân tạo (AI), đặc biệt là các mô hình ngôn ngữ lớn (LLM) như ChatGPT.

Ảnh minh họa.

Ảnh minh họa.

AI hiện hữu trong hầu hết đời sống con người, từ sinh hoạt tới sản xuất, giáo dục, nghiên cứu, sáng tạo nghệ thuật. AI giúp con người tối ưu hóa hoạt động, tăng hiệu suất, giảm nhân lực. Sự bùng nổ của AI đã và đang cho thấy sự lớn mạnh không ngừng của ứng dụng học máy và công nghệ dữ liệu lớn, đẩy trí tuệ nhân tạo lên một bước phát triển mới.

Bất chấp những lợi ích to lớn đó, AI đang đứng trước nguy cơ biến chính quá trình sáng tạo tri thức thành một vòng lặp đóng, đe dọa sự sáng tạo và gây ra sự ‘thoái hóa’ tư duy con người.

Theo các chuyên gia, sự tiện lợi tức thời khi sử dụng AI có thể phải trả giá bằng chi phí trí tuệ dài hạn.

Sự suy giảm chức năng não bộ và “nợ nhận thức”

Nghiên cứu kéo dài bốn tháng của Viện Công nghệ Massachusetts (MIT) đã làm sáng tỏ những tác động sâu sắc của việc lạm dụng AI đối với bộ não con người. Nghiên cứu này, theo dõi 54 người tham gia viết luận, phát hiện ra rằng việc dựa dẫm vào các công cụ AI có thể làm suy yếu chức năng não và kỹ năng tư duy phản biện.

Sử dụng công nghệ điện não đồ (EEG), các nhà nghiên cứu đã ghi lại hoạt động não của những người tham gia. Kết quả thật đáng kinh ngạc: Nhóm sử dụng công cụ AI thể hiện kiểu mẫu thần kinh khác biệt đáng kể so với nhóm chỉ viết bằng trí óc. Nhóm này cho thấy kết nối thần kinh ít hơn tới 55% so với nhóm chỉ dùng não, đặc biệt là ở những vùng chịu trách nhiệm cho tư duy sâu và hình thành trí nhớ.

Các nhà nghiên cứu gọi hiện tượng này là "nợ nhận thức". Tương tự như nợ tài chính cho phép hưởng lợi ích hiện tại nhưng phải trả chi phí sau này, nợ nhận thức xảy ra khi chúng ta chuyển giao nỗ lực trí tuệ cho các hệ thống bên ngoài, khiến các cơ bắp tinh thần bị teo đi do không được sử dụng. Nếu lạm dụng, AI có thể biến con người thành những kẻ tiêu thụ thụ động, đánh mất kỹ năng suy nghĩ độc lập.

Hệ lụy của việc giảm hoạt động nhận thức rất rõ ràng:

Suy giảm trí nhớ: Trong buổi đầu tiên của nghiên cứu MIT, có đến 83% người dùng AI không thể trích dẫn từ bài viết của chính mình, và không ai đưa ra được trích dẫn chính xác. Ngay cả sau nhiều buổi, nhiều người vẫn gặp khó khăn với nhiệm vụ cơ bản này.

Suy yếu tư duy phản biện: Việc sử dụng AI dẫn đến “sự tham gia hời hợt” và làm suy yếu kỹ năng tư duy phản biện, có thể nuôi dưỡng thói quen trì hoãn và "lười biếng".

Giảm hoạt động não bộ: Những người viết luận văn với sự hỗ trợ của AI kích hoạt não bộ ít hơn hẳn, với các vùng liên quan đến trí nhớ, tư duy phản biện và điều hành hoạt động giảm mạnh.

Khủng hoảng sáng tạo tri thức và "sụp đổ mô hình"

Vấn đề của các LLM không nằm ở năng lực tổng hợp, mà ở chỗ chúng chỉ biết tái chế những gì đã có. Các hệ thống này không sản sinh hiểu biết mới, mà chủ yếu sử dụng dữ liệu có sẵn rồi tái phân phối.

Khác với con người, vốn luôn tìm kiếm hướng đi mới vì nhiều động cơ như tiền bạc, danh tiếng, tò mò hay khát vọng chinh phục tri thức, AI không thể sản sinh được “cái mới”. Khi AI có thể trả lời gần như mọi câu hỏi phức tạp chỉ trong vài giây, phần thưởng cho sự sáng tạo của con người sẽ dần mất đi.

Sự mất động lực này đã được thể hiện qua trường hợp của Stack Overflow, diễn đàn nơi lập trình viên chia sẻ tri thức: chỉ trong 6 tháng sau khi ChatGPT xuất hiện, lượng câu hỏi trên nền tảng này giảm hơn 25%, và đến nay là 90%. Đây là sự mất mát của một “kho tri thức sống”, nơi mỗi câu trả lời được kiểm chứng, tranh luận và bổ sung.

Chính dữ liệu từ những nền tảng như Stack Overflow từng là nguồn huấn luyện cho các công cụ AI. Khi nguồn gốc tri thức này cạn kiệt, AI sẽ ngày càng lặp lại những gì chính nó đã sản sinh.

Hiện tượng này được gọi là “Sự sụp đổ mô hình tri thức” (model collapse). Các nhà nghiên cứu cảnh báo rằng khi mô hình bị huấn luyện chủ yếu từ dữ liệu do chính AI sinh ra, chất lượng tri thức dần trở nên nghèo nàn, mất dần khả năng phản ánh sự đa dạng và độ chính xác của thế giới thực. Giáo sư Hannah Li của Đại học Columbia kết luận rằng: “Kết quả chung là chúng sẽ tệ hơn. Các mô hình sẽ tệ hơn”.

Nguy cơ đồng nhất hóa và tái chế tri thức

Bên cạnh sự suy giảm nhận thức cá nhân, việc lạm dụng AI còn dẫn đến sự đồng nhất hóa tri thức. Các bài luận được viết với sự hỗ trợ của AI có sự tương đồng đáng kinh ngạc, cho thấy các mô hình "đồng nhất về mặt thống kê". Điều này tạo ra một kiểu độc canh trí tuệ, nơi các quan điểm đa dạng của con người được lọc qua cùng một lăng kính thuật toán, có khả năng kìm hãm sự đa dạng sáng tạo.

AI có xu hướng nhấn mạnh các mẫu phổ biến trong dữ liệu và dần dần bỏ quên các thông tin hiếm, các chi tiết độc đáo hoặc các dữ liệu nằm ở góc khuất trong thống kê. Nếu xu hướng này tiếp tục, Internet vốn là kho thông tin phong phú có nguy cơ trở thành một thế giới mờ nhạt, nơi tri thức bị làm loãng. Nhân loại có thể bước vào thời kỳ “tái chế tri thức”, nơi đổi mới bị đình trệ vì phần thưởng cho sáng tạo mới ngày càng mờ nhạt.

AI là công cụ mạnh mẽ, nhưng cần phải có cách tiếp cận chiến lược. Các nhà nghiên cứu MIT đã phát hiện ra một dấu hiệu lạc quan: những người tham gia đã phát triển nền tảng nhận thức vững chắc trước khi sử dụng AI có thể tận dụng chúng hiệu quả hơn, thậm chí hoạt động thần kinh còn tăng lên khi được giới thiệu về công cụ này. Họ sử dụng AI như một trợ lý thực sự chứ không phải một công cụ hỗ trợ.

Tri thức nhân loại được gây dựng bằng nỗ lực, trí tò mò và lòng dũng cảm dấn thân vào điều chưa biết. Tuy nhiên, nếu biến AI thành “đường ray” duy nhất, chúng ta có nguy cơ bị dẫn vào một vòng lặp nghèo nàn, nơi cả con người lẫn máy móc chỉ còn biết lặp lại những gì đã có.

 Nguồn: BÁO MỚI

Thi giấy và nỗi sợ ChatGPT

on .

Đầu tháng 5 vừa rồi, sinh viên ngành Luật tại Đại học Victoria Wellington, New Zealand, bất ngờ nhận được thông báo: kỳ kiểm tra tới sẽ quay lại… bài thi trên giấy.

Không laptop, không Google, và tuyệt nhiên không thể dùng ChatGPT. Một bước lùi công nghệ, nhưng là phản ứng dễ hiểu trước làn sóng sinh viên sử dụng trí tuệ nhân tạo (AI) như công cụ giải cứu trong học tập, từ việc làm bài, tóm tắt tài liệu, cho đến viết luận cuối kỳ.

Câu chuyện không chỉ diễn ra ở xứ sở kiwi. Trên tạp chí New York, một bài viết gần đây mang tiêu đề gây sốc "Ai cũng đang gian lận để lấy bằng đại học" phản ánh một hiện tượng lan rộng: sinh viên ở nhiều nơi đang lặng lẽ dựa vào AI để đối phó áp lực học hành, trong khi nhà trường loay hoay triển khai các chính sách và công cụ đối phó.

Ở Việt Nam, xu hướng này đã len lỏi vào giảng đường. Một nghiên cứu từ sáu trường thuộc Đại học Quốc gia TP HCM cho thấy 89,2% sinh viên dùng ChatGPT để tra cứu, dịch thuật, giải thích thuật ngữ hay làm bài tập. Một khảo sát khác tiết lộ: đa số sử dụng AI để tiết kiệm thời gian, nhưng lại thiếu hiểu biết rõ ràng về đạo đức học thuật, có thể dẫn tới hành vi gian lận mà chính họ không nhận thức được.

Những con số này khiến tôi nghĩ đến trải nghiệm thực tế của bản thân.

Cách đây không lâu, tôi được yêu cầu hướng dẫn sinh viên một trường đại học quốc tế ở Việt Nam sử dụng LockDown Browser - công cụ khóa trình duyệt, chặn sao chép, dán, thậm chí cả kiểm tra chính tả trên laptop trong giờ thi ở một chương trình dự bị đại học. Mục đích rất rõ: hạn chế tối đa khả năng gian lận từ các nguồn ngoài, đặc biệt là AI.

Tất cả diễn biến này phản ánh một thực tế: người học đang dần lệ thuộc vào công cụ thông minh thay vì trau dồi tư duy phản biện, một năng lực cốt lõi của giáo dục đại học.

Việc quay lại thi giấy hay kiểm soát chặt chẽ bằng trình duyệt như LockDown Browser là giải pháp đảm bảo công bằng trước mắt, nhất là đối với những bài thi cần người học thể hiện năng lực, kiến thức nền tảng. Nhưng liệu đây có phải là chiến lược dài hạn phù hợp với mọi cấp học và ngành học? Đặc biệt trong bối cảnh mục tiêu của giáo dục đại học ngày nay là đào tạo ra những người lao động có khả năng tư duy sáng tạo, linh hoạt, và biết cách hợp tác hiệu quả với AI - thay vì né tránh hay đối đầu với nó?

Tôi có gần hai thập niên làm việc trong ngành dịch thuật, một lĩnh vực đang chịu ảnh hưởng sâu sắc từ sự phát triển của trí tuệ nhân tạo. Ngày nay, biên dịch viên ít khi dịch trực tiếp như trước, mà thường được khách hàng giao cho công việc post-editing - hiệu chỉnh bản dịch được tạo ra bởi AI. Các bản dịch AI nhìn chung có độ chính xác cao, tuy nhiên vẫn cần con người rà soát để đảm bảo không sai sót, ngôn ngữ có sắc thái, và phù hợp với ngữ cảnh.

Điều này đặc biệt quan trọng trong lĩnh vực y tế, nơi chất lượng bản dịch có thể ảnh hưởng trực tiếp đến tính mạng con người.

Ví dụ cụ thể cho thấy rõ điều này là dự án gần đây tôi tham gia. Một công ty thuê tôi đánh giá độ chính xác của bảng dịch từ AI bộ câu hỏi cho bệnh nhân. Nhiệm vụ của tôi là thử nghiệm bản dịch tiếng Việt với các bệnh nhân mắc bệnh phổi tắc nghẽn mạn tính, đại diện cho các nhóm trình độ học vấn, độ tuổi và vùng miền khác nhau tại Việt Nam. Kết quả cho thấy, mặc dù bản dịch không hoàn toàn sai, vẫn có nhiều chỗ khiến người bệnh khó hiểu hoặc không phù hợp với văn hóa ngôn ngữ bản địa. Điều này cho thấy vai trò không thể thay thế của con người trong việc kiểm tra, điều chỉnh và đảm bảo chất lượng bản dịch - nhất là trong những lĩnh vực nhạy cảm.

Những trải nghiệm như thế đã thay đổi cách tôi giảng dạy. Tôi không cấm sinh viên dùng ChatGPT hay công cụ AI khác. Thay vào đó, tôi hướng dẫn họ sử dụng AI như một "đối tác" để luyện tập hiệu đính và đánh giá sắc thái ngôn ngữ, mức độ tự nhiên và hiệu quả diễn đạt.

Một đồng nghiệp của tôi giảng dạy chuyên ngành du lịch cũng áp dụng phương pháp tương tự. Anh khuyến khích sinh viên dùng ChatGPT để xây dựng tour du lịch dành cho người cao tuổi Australia muốn tham quan Việt Nam trong hai tuần. Sau đó nhóm sinh viên phải tiếp xúc, phỏng vấn các nhà điều hành tour thực tế để nhận phản hồi. Kết quả là sinh viên không chỉ học cách thiết kế tour, mà còn hiểu sâu sắc hơn về tâm lý và nhu cầu khách hàng, những yếu tố mà AI không thể "đoán đúng" hoàn toàn.

Tất nhiên, những phương pháp này không phải lúc nào cũng phù hợp hay khả thi với mọi chương trình và cấp học và mọi ngành nghề. Tùy vào mục tiêu đào tạo và đặc thù môn học, mỗi giảng viên có thể lựa chọn và phát triển cách tiếp cận riêng, phản ánh sự đa dạng trong thực tiễn giảng dạy và nhu cầu học tập của từng chương trình, từng đối tượng người học.

Trong bối cảnh trí tuệ nhân tạo đang phát triển nhanh chóng, ngành giáo dục đối mặt với những thách thức chưa từng có. Điều cần thiết lúc này không chỉ là những phản ứng đơn lẻ, tạm thời như rút phích cắm - ngắt kết nối internet, trở lại bài thi giấy, hay sử dụng phần mềm khóa trình duyệt, mà là một chiến lược tổng thể, được xây dựng trên sự đồng thuận và phối hợp giữa nhiều bên liên quan.

Với các nhà hoạch định chính sách giáo dục, cần xây dựng khung pháp lý và hướng dẫn cụ thể về việc sử dụng AI trên cả nước và trong từng trường học. Những chính sách này không chỉ nên dừng ở mức "cấm" hay "cho phép", mà cần đặt ra các tiêu chuẩn rõ ràng về đạo đức học thuật, quyền sở hữu trí tuệ, cũng như trách nhiệm của người học và người dạy.

Với các trường đại học và cơ sở đào tạo, cần đầu tư bồi dưỡng đội ngũ giảng viên trong việc ứng dụng AI một cách hiệu quả, có kiểm soát. Đồng thời, rà soát lại chương trình để tích hợp các kỹ năng mới, như tư duy phản biện, đánh giá thông tin, và cộng tác với AI vào chuẩn đầu ra của từng ngành học.

Với giảng viên, trong một thế giới mà tri thức không còn giới hạn trong sách vở hay giảng đường, người dạy cần giữ tinh thần cởi mở, chủ động thử nghiệm và chia sẻ kinh nghiệm. Vai trò của họ là cùng xây dựng những thực hành sư phạm mới, nơi AI không bị xem là mối đe dọa, mà trở thành công cụ hỗ trợ nâng cao chất lượng giảng dạy và học tập.

Trí tuệ nhân tạo là bước ngoặt của thời đại. Đây là một vấn đề rất lớn. Cách chúng ta phản ứng với nó sẽ quyết định liệu đây là cơ hội để thay đổi và nâng tầm giáo dục, hay là khởi đầu của một cuộc khủng hoảng niềm tin vào giá trị thực của việc dạy và học.

Phạm Hòa Hiệp

Chế độ AI của Google đề xuất tìm kiếm ngày càng 'nắm rõ' người dùng

on .

Trong Chế độ AI, Google hiện nay đưa ra gợi ý truy vấn cá nhân hóa dựa trên lịch sử tìm kiếm của người dùng. Tính năng mới này nhằm giúp người dùng khai thác tối đa tiềm năng của phần mềm.

Cụ thể, Google đã giới thiệu một tính năng mới trong khuôn khổ Chế độ AI thử nghiệm, cho phép đề xuất các câu lệnh truy vấn tùy chỉnh dựa trên hoạt động của người dùng trong hệ sinh thái Google.

Thay vì những ví dụ cố định như trước, giờ đây người dùng sẽ thấy các gợi ý như “Gợi ý một chiếc laptop Lenovo” nếu họ từng tìm kiếm thông tin về các ưu đãi laptop. Các ý tưởng truy vấn sẽ tự động cập nhật mỗi khi bạn mở trang Chế độ AI trong ứng dụng Google, widget hoặc Pixel Launcher.

Tính năng mới trong Chế độ AI của Google: Gợi ý cá nhân hóa

Việc đưa ra ví dụ truy vấn không phải điều mới đối với chatbot. Trước đây, Google chỉ cung cấp ba gợi ý cố định, nhưng giờ đây, các đề xuất sẽ phản ánh bối cảnh người dùng: Google sẽ phân tích truy vấn tìm kiếm trước đó và đưa ra gợi ý phù hợp với sở thích hiện tại của người dùng. Những ví dụ này sẽ tự động làm mới mỗi lần truy cập, tạo nên trải nghiệm tương tác với AI mang tính cá nhân hóa và linh hoạt hơn.

Câu hỏi được đặt ra, tại sao Google lại thực hiện bước đi này? Từ sự kiện Google I/O 2025, đã rõ rằng Chế độ AI sẽ trở nên linh hoạt hơn, đa tầng hơn, và đa phương thức hơn. Với các gợi ý cá nhân hóa, Google đang giảm rào cản tiếp cận cho người dùng phổ thông.

Mục tiêu là để phần mềm AI cho người dùng thấy khả năng thật sự của chế độ này: viết văn bản dài, so sánh phức tạp, đặt câu hỏi bằng giọng nói hoặc camera (Lens). Vì vậy, các gợi ý không chỉ mang tính tiện lợi mà còn là các điểm trình diễn trung tâm cho những năng lực mới, giúp người dùng khai thác trọn vẹn tiềm năng của chatbot.

Chatbot đang thay thế công cụ tìm kiếm

Tính năng gợi ý này giúp người dùng mới làm quen với Chế độ AI dễ dàng hơn: họ sẽ ngay lập tức thấy mình có thể hỏi gì. Những người sử dụng Google nhiều sẽ nhận được các đề xuất sát với sở thích cá nhân. Điều này đồng nghĩa với việc Google có cái nhìn sâu hơn vào hồ sơ quan tâm cá nhân của từng người dùng.

Hiện chưa rõ mức độ minh bạch trong cách Google theo dõi và xử lý dữ liệu người dùng. Tuy nhiên, với những ai thường xuyên sử dụng các sản phẩm Google, có lẽ việc bảo mật dữ liệu không còn là mối bận tâm quá nguyên tắc nữa.

Một điểm vừa thú vị vừa đáng lo ngại là việc AI chatbot ngày càng thay thế vai trò của công cụ tìm kiếm và việc tra cứu độc lập. Độ tin cậy của câu trả lời từ AI vẫn còn là dấu hỏi lớn. Hơn nữa, bởi vì AI “thà đoán sai còn hơn im lặng”, người dùng nhiều khi không hề nhận ra mình đang bị chatbot đánh lừa.

Tuy nhiên, có một mối lo dường như không còn quá trầm trọng như ban đầu: về mặt hiệu suất năng lượng, chatbot không tệ như nhiều người từng nghĩ khi so với công cụ tìm kiếm truyền thống.

Anh Tú


Nguồn: https://baomoi.com/che-do-ai-cua-google-de-xuat-tim-kiem-ngay-cang-nam-ro-nguoi-dung-c52591042.epi?utm_source=dapp&utm_campaign=share

AI góp phần phát tán thông tin sai sự thật

on .

Trong cuộc xung đột kéo dài 4 ngày vừa qua giữa Ấn Độ và Pakistan, hàng triệu người dùng đã tìm đến các chatbot trí tuệ nhân tạo AI như Grok của Công ty xAI (do tỷ phú Elon Musk sở hữu), ChatGPT của OpenAI và Gemini của Google để xác minh tin tức.

Thế nhưng, đáng ngại ở chỗ, những công cụ này thường xuyên đưa ra các thông tin sai sự thật, làm gia tăng tình trạng hỗn loạn thông tin. Một ví dụ điển hình là việc Grok đã nhầm lẫn một đoạn video cũ tại sân bay Khartoum ở Sudan thành cảnh tên lửa tấn công căn cứ không quân Nur Khan của Pakistan. Thậm chí, một đoạn clip về tòa nhà cháy ở Nepal cũng bị chatbot này khẳng định "nhiều khả năng" là phản ứng quân sự của Pakistan sau các cuộc không kích từ Ấn Độ.

  Người dùng cần thận trong khi sử dụng AI. Ảnh: DW

Người dùng cần thận trong khi sử dụng AI. Ảnh: DW 

Chuyên gia McKenzie Sadeghi thuộc tổ chức giám sát thông tin sai lệch NewsGuard cảnh báo: "Sự phụ thuộc ngày càng lớn vào Grok như một công cụ kiểm chứng đang diễn ra trong bối cảnh các nền tảng công nghệ lớn giảm đầu tư vào lực lượng kiểm chứng là con người". Bà Sadeghi nhấn mạnh, các nghiên cứu của NewsGuard cho thấy chatbot AI không phải là nguồn đáng tin cậy cho tin tức, đặc biệt là trong các tình huống tin nóng. Các báo cáo của NewsGuard cũng chỉ ra rằng, 10 chatbot hàng đầu hiện nay có xu hướng lặp lại các luận điệu tuyên truyền sai sự thật.

Trong khi đó, một nghiên cứu do Trung tâm Báo chí kỹ thuật số Tow (thuộc Đại học Columbia) thực hiện, cho thấy 8 công cụ tìm kiếm AI thường xuyên đưa ra câu trả lời sai hoặc suy đoán thay vì thừa nhận không có kiến thức để trả lời về vấn đề được hỏi và đây được coi là một hành vi nguy hiểm đối với công tác kiểm chứng tin tức. Câu chuyện tại Uruguay là một minh chứng rõ ràng về điều này. Khi các kiểm chứng viên của hãng tin AFP yêu cầu Gemini xác minh một hình ảnh do AI tạo ra, chatbot này không chỉ khẳng định đó là ảnh thật mà còn "bịa thêm" chi tiết về danh tính và bối cảnh địa điểm. Thậm chí, Grok gần đây còn tuyên bố một video giả về "rắn khổng lồ bơi trên sông Amazon" là "có thật" và viện dẫn những chuyến thám hiểm khoa học tưởng tượng để củng cố cho nhận định sai lầm của mình. Dù sau đó, hãng tin AFP đã xác nhận đây là video do AI tạo ra, nhưng nhiều người dùng vẫn tiếp tục chia sẻ dựa trên "kết luận của Grok".

Sự tin tưởng của người dùng vào chatbot AI đang gia tăng rõ rệt. Trong khi đó, nhiều nền tảng công nghệ lớn như Meta lại thông báo chấm dứt chương trình kiểm chứng bởi bên thứ ba tại Mỹ. Thay vào đó, họ chuyển sang mô hình "Community Notes" (ghi chú cộng đồng) - tương tự như cách mạng xã hội X triển khai, tức là để người dùng tự kiểm chứng lẫn nhau. Mô hình này bị giới chuyên gia nghi ngờ về hiệu quả, đặc biệt trong một thế giới siêu phân cực về chính trị.

Không những thế, các mô hình ngôn ngữ lớn như ChatGPT đang trở thành “trợ thủ đắc lực” cho tội phạm mạng. Những thủ đoạn lừa đảo qua mạng, đặc biệt là hình thức tống tiền, giả mạo thư điện tử (email) và các cuộc tấn công mạng được hỗ trợ nhờ AI tạo sinh ngày càng tinh vi, khó phát hiện và nguy hiểm hơn bao giờ hết. Theo ông Christophe Axen, Phó Giám đốc Đơn vị tội phạm máy tính khu vực của Cảnh sát Tư pháp liên bang Bỉ tại Lìege, những chiêu trò này từng dễ dàng bị phát hiện nhờ người dùng tinh ý hoặc bộ lọc thư rác. Song hiện nay, AI tạo sinh không những có thể tạo ra email, mà còn có thể mô phỏng cả một cuộc đối thoại khiến người dùng mất cảnh giác.

MINH CHÂU