NGÀNH CNTT TUYỂN SINH NHIỀU CHỈ TIÊU NGÀNH CNTT, CNTT VIỆT NHẬT VÀ KHOA HỌC DỮ LIỆU

Tin tức

Một phút tò mò quét mã QR, cái giá phải trả là toàn bộ dữ liệu cá nhân và tài chính

on .

Thủ đoạn lừa đảo mới liên quan đến ship hàng: Quét mã QR, mất sạch dữ liệu. Không chỉ người mua hàng online mà bất kỳ ai tò mò cũng có thể trở thành nạn nhân của chiêu trò lừa đảo mới này.

Cục Điều tra Liên bang Mỹ (FBI) vừa đưa ra cảnh báo khẩn về một hình thức lừa đảo tinh vi liên quan đến vận chuyển hàng hóa. Theo đó, kẻ gian gửi những gói hàng ngẫu nhiên đến tận tay người nhận dù họ chưa từng đặt mua. Ban đầu, thủ đoạn này được dùng để tạo đánh giá ảo trên các sàn thương mại điện tử, nhưng mối nguy hiểm thật sự lại nằm trong những tờ giấy in kèm mã QR bên trong hộp.

Chỉ với một lần quét mã, nạn nhân có thể tự mở cửa cho tin tặc xâm nhập điện thoại. Các mã QR này dẫn đến những trang web giả mạo, yêu cầu cung cấp thông tin cá nhân, dữ liệu tài chính hoặc cài đặt phần mềm độc hại.

Một khi dính bẫy, kẻ gian có thể thu thập toàn bộ thông tin từ thẻ tín dụng, tài khoản ngân hàng, chứng khoán cho đến ví tiền điện tử. Tệ hơn, dữ liệu cá nhân còn có nguy cơ bị đem bán trên chợ đen mà nạn nhân hoàn toàn không hay biết.

 Một khi quét mã, nạn nhân có thể bị thu thập toàn bộ thông tin cá nhân, thẻ tín dụng, tài khoản ngân hàng,... (Ảnh minh họa)

Một khi quét mã, nạn nhân có thể bị thu thập toàn bộ thông tin cá nhân, thẻ tín dụng, tài khoản ngân hàng,... (Ảnh minh họa)

Từ chiêu trò ở Mỹ đến thực tế tại Việt Nam

Điểm nguy hiểm của chiêu trò này nằm ở chỗ gói hàng thường không có địa chỉ trả lại hoặc thông tin người gửi, khiến người nhận sinh nghi nhưng đồng thời cũng bị kích thích trí tò mò. Với thói quen quét mã QR tiện lợi trên smartphone, nhiều người dễ dàng rơi vào bẫy chỉ sau vài giây.

Điều đáng lo ngại là tại Việt Nam, các hình thức lừa đảo liên quan đến mã QR cũng đã xuất hiện. Theo báo điện tử Chính phủ, tại Hà Nội, Công an quận Tây Hồ vừa nhận trình báo của một siêu thị mini bị kẻ gian dán chồng đè mã QR code giả lên kính. Chủ cửa hàng chỉ phát hiện khi khách báo đã thanh toán nhưng tiền không về tài khoản. Sau khi kiểm tra, mới biết mã QR thật đã bị che phủ bằng mã giả để chuyển tiền vào tài khoản của đối tượng.

Không chỉ dừng lại ở đó, thủ đoạn dùng app chỉnh sửa ảnh giao dịch cũng được ghi nhận. Công an phường Nếnh (thị xã Việt Yên, Bắc Giang) vừa bắt giữ Nguyễn Văn Phương (trú tại Thái Nguyên) vì hành vi lừa đảo. Phương giả vờ cần tiền mặt, hứa sẽ chuyển khoản trả ngay nhưng thực chất dùng ứng dụng chỉnh sửa để tạo ảnh chụp chuyển khoản thành công giả, qua đó chiếm đoạt tiền từ các chủ cửa hàng.

 Với thói quen quét mã QR tiện lợi trên smartphone, nhiều người dễ dàng rơi vào bẫy chỉ sau vài giây (Ảnh minh họa)

Với thói quen quét mã QR tiện lợi trên smartphone, nhiều người dễ dàng rơi vào bẫy chỉ sau vài giây (Ảnh minh họa)

Tại Lào Cai, Công an TP Lào Cai cũng vừa khởi tố Hạ Thị Ngọc (trú tại Vĩnh Phúc) vì hành vi tạo hóa đơn giả qua điện thoại để mua quần áo và hàng ăn. Đối tượng khai đã chụp mã QR của cửa hàng gửi cho một người quen qua mạng để làm giả giao dịch thanh toán, sau đó sử dụng hóa đơn này để lừa đảo, chiếm đoạt tài sản.

Những vụ việc trên cho thấy tội phạm công nghệ cao ngày càng lợi dụng tâm lý chủ quan và thói quen thanh toán điện tử để thực hiện hành vi tinh vi, khiến cả người tiêu dùng lẫn tiểu thương dễ dàng sập bẫy.

FBI và công an khuyến cáo: Tuyệt đối cảnh giác

FBI khuyến cáo người dùng không quét mã QR trong những gói hàng lạ, kiểm tra kỹ quyền truy cập khi cài ứng dụng và ngay lập tức đổi mật khẩu nếu nghi ngờ bị nhắm tới. Đồng thời, người dân nên theo dõi báo cáo tín dụng để phát hiện giao dịch bất thường.

Tại Việt Nam, lực lượng công an cũng đang đồng loạt rà soát, tuyên truyền cho các cửa hàng, siêu thị và người dân về thủ đoạn mới này. Các chủ cơ sở kinh doanh được khuyến nghị thường xuyên kiểm tra lại nơi dán mã QR code, không tin ngay vào hình ảnh chuyển khoản mà phải xác minh số tiền thực tế trong tài khoản ngân hàng trước khi giao hàng hoặc đưa tiền mặt.

 Mặc dù chiêu lừa quét mã QR từ gói hàng lạ khởi phát tại Mỹ, giới chuyên gia an ninh cảnh báo nó hoàn toàn có khả năng lan rộng tới Việt Nam. (Ảnh minh họa)

Mặc dù chiêu lừa quét mã QR từ gói hàng lạ khởi phát tại Mỹ, giới chuyên gia an ninh cảnh báo nó hoàn toàn có khả năng lan rộng tới Việt Nam. (Ảnh minh họa)

Mặc dù chiêu lừa quét mã QR từ gói hàng lạ khởi phát tại Mỹ, giới chuyên gia an ninh cảnh báo nó hoàn toàn có khả năng lan rộng ra toàn cầu, đặc biệt tại các quốc gia có tỷ lệ thanh toán số cao như Việt Nam. Trong bối cảnh người Việt ngày càng quen với việc dùng smartphone để giao dịch, từ mua hàng, chuyển khoản đến thanh toán dịch vụ, chỉ cần một phút bất cẩn cũng có thể biến điện thoại thành “cửa ngõ” cho hacker chiếm trọn dữ liệu.

Việc nâng cao cảnh giác, xác minh kỹ lưỡng trước mỗi giao dịch và thường xuyên cập nhật thông tin cảnh báo từ cơ quan chức năng sẽ là “lá chắn” cần thiết để tránh mất tiền oan và bảo vệ dữ liệu cá nhân.

 Nguồn: https://baomoi.com/mot-phut-to-mo-quet-ma-qr-cai-gia-phai-tra-la-toan-bo-du-lieu-ca-nhan-va-tai-chinh-c53030232.epi?utm_source=dapp&utm_campaign=share

Tiến sĩ Việt ở xAI làm giáo sư thỉnh giảng ĐH Quốc gia TP.HCM

on .

TS Phạm Hy Hiếu, thành viên kỹ thuật tại xAI (công ty AI do tỷ phú Elon Musk thành lập), là một trong 16 giáo sư thỉnh giảng đầu tiên tại Đại học Quốc gia TP.HCM.

TS Phạm Hy Hiếu làm giáo sư thỉnh giảng tại Đại học Quốc gia TP.HCM. Ảnh: NVCC.

Theo thông tin từ Đại học Quốc gia TP.HCM, TS Phạm Hy Hiếu (33 tuổi) là nhà khoa học có chuyên môn cao trong lĩnh vực học máy và ngôn ngữ học tính toán.

Anh từng là học sinh trường Phổ thông Năng khiếu (Đại học Quốc gia TP.HCM). Năm 2015, anh tốt nghiệp loại giỏi ngành Khoa học Máy tính tại Đại học Stanford (Mỹ) và được trao giải thưởng Ben Wegbreit dành cho luận văn danh dự xuất sắc nhất.

Sau đó, anh học tiến sĩ ngành Học máy và Ngôn ngữ học tính toán tại Đại học Carnegie Mellon (2017-2021). Tại đây, anh là sinh viên đầu tiên được Google Brain tài trợ toàn bộ học phí và hạ tầng tính toán.

Từ tháng 8/2024, anh Hiếu là thành viên kỹ thuật tại xAI. Tại đây, anh tham gia tối ưu hóa nhân attention cho mô hình Grok-3 - AI được Elon Musk tuyên bố là "thông minh nhất Trái Đất".

Trước đó, anh từng là nhà nghiên cứu tại Công ty Augment Computing, góp phần quan trọng đưa công ty từ giai đoạn khởi nghiệp đạt mức định giá 1 tỷ USD.

Anh cũng từng công tác tại Google Brain với vai trò nhà nghiên cứu (4/2020-3/2023), đồng thời giữ vị trí phó giáo sư kiêm nhiệm tại khoa Kỹ thuật Điện, Đại học Quốc gia Singapore (4/2021-3/2023).

TS Hiếu cho biết năm ngoái, anh đã gặp và nghe Giám đốc Đại học Quốc gia TP.HCM Vũ Hải Quân chia sẻ về chương trình giáo sư thỉnh giảng.

Anh đánh giá đây là vị trí thú vị trong giới hàn lâm, tạo điều kiện cho nhiều người có thể đóng góp cho các trường đại học mà không tạo ra các ràng buộc khó khăn, như phải gây quỹ nghiên cứu hay phải tham gia giảng dạy.

Ngoài ra, chương trình giáo sư thỉnh giảng tại Đại học Quốc gia TP.HCM còn cho phép các giáo sư thỉnh giảng cộng tác trong khi sống và làm việc ở nước ngoài. Vì vậy, anh quyết định tham gia.

Trở thành giáo sư thỉnh giảng tại Đại học Quốc gia TP.HCM, với chuyên ngành về kiến trúc và phần cứng AI, TS Hiếu mong muốn chia sẻ kinh nghiệm nghiên cứu và làm việc của mình với các bạn giảng viên, sinh viên của trường, cũng như lắng nghe từ họ những vấn đề thực tiễn trong môi trường AI của Việt Nam.

Cụ thể, anh muốn tạo điều kiện cho sinh viên được tiếp xúc với các hướng nghiên cứu mới nhất và mang tính thực tiễn nhất trong AI.

Theo anh, nghiên cứu AI đòi hỏi lượng vốn đầu tư cực kỳ lớn. Ví dụ, một cỗ máy gồm 8 chip AI hiện đại vào năm 2025 được bán với giá 500 nghìn USD.

"Chúng ta cần vài chục nghìn cỗ máy như vậy mới có thể tạo ra được một AI như DeepSeek", anh Hiếu nhìn nhận không chỉ có các đơn vị giáo dục ở Việt Nam mà các học viện lớn trên thế giới như Cambridge, Stanford hay MIT cũng không có cách nào tiếp xúc được với nguồn vốn này.

Vị tiến sĩ cho rằng để tham gia vào các hướng nghiên cứu này, chúng ta phải nhìn ra cách để thực hiện các nghiên cứu ở mức độ nhỏ hơn, nhưng vẫn đảm bảo có giá trị ở mức độ lớn.

"Tôi muốn chia sẻ với các bạn ở Đại học Quốc gia TP.HCM cách để phát hiện ra những nghiên cứu ở mức độ nhỏ như vậy và hướng dẫn các bạn thực hiện một vài nghiên cứu theo hướng đó", TS Hiếu nói.

Mục tiêu thứ hai của anh là tìm hiểu xem các nghiên cứu về AI ở Đại học Quốc gia TP.HCM thường gặp phải các khó khăn, thử thách nào. Qua đó, anh muốn giúp việc nghiên cứu AI ở đại học phát triển hơn.

Trước đó, Đại học Quốc gia TP.HCM đã ban hành chương trình Giáo sư thỉnh giảng nhằm kết nối trí thức toàn cầu, thúc đẩy đổi mới sáng tạo và nâng cao chất lượng đào tạo, nghiên cứu tại Việt Nam.

Ngoài TS Hiếu, 15 giáo sư và nhà nghiên cứu khác đến từ nhiều trường đại học uy tín hàng đầu thế giới như trường Y Harvard (Mỹ), Đại học Toronto (Canada), Đại học Kỹ thuật Munich (Đức), Đại học Georgetown (Mỹ), Viện Khoa học và Công nghệ tiên tiến (Nhật Bản)…

Đây là những chuyên gia có uy tín trong các lĩnh như trí tuệ nhân tạo, thiết kế vi mạch, y khoa, công nghệ sinh học, dân tộc học, ngôn ngữ học, nông nghiệp số và biến đổi khí hậu…

Các chuyên gia sẽ hợp tác nghiên cứu, giảng dạy tại các trường thành viên, viện nghiên cứu Đại học Quốc gia TP.HCM thông qua hình thức trực tuyến và trực tiếp.

Ngọc Bích

Nguồn: https://baomoi.com/tien-si-viet-o-xai-lam-giao-su-thinh-giang-dh-quoc-gia-tp-hcm-c52042784.epi?utm_source=dapp&utm_campaign=share

Danh tính của bạn 'giá' bao nhiêu?

on .

'Vô giá' – Tôi đoán đó là câu trả lời phổ biến của hầu hết những ai được hỏi. Tuy nhiên, dưới tác động của công nghệ Deepfake, AI hoặc điện toán lượng tử, bạn có biết danh tính của mình dễ bị tổn thương như thế nào trong thế giới hiện đại này không?...

 

Một cuộc khảo sát do Hiệp hội An ninh mạng Quốc gia (Việt Nam) thực hiện vào tháng 12/2024 cho thấy cứ 220 người dùng điện thoại thông minh thì có một người phải đối mặt với các trò lừa đảo trực tuyến. Năm 2024, người Việt đã mất tổng cộng 18,9 nghìn tỷ đồng, tương đương 744 triệu USD do lừa đảo trực tuyến. Theo Global Initiative, năm 2023, Việt Nam có mức tăng cao nhất về gian lận deepfake trong khu vực Châu Á Thái Bình Dương (25,3%), tiếp theo là Nhật Bản (23,4%). 

Trong thế giới hiện đại nơi công nghệ được ứng dụng khắp nơi như hiện nay, chúng ta chia sẻ dữ liệu cá nhân của mình trên nhiều nền tảng, ví dụ như để mở tài khoản ngân hàng, tạo tài khoản mạng xã hội, đăng ký khóa học trực tuyến hoặc đăng ký thành viên của một trang web nào đó, thậm chí là để giải trí với các ứng dụng chỉnh sửa video hoặc chỉnh sửa ảnh. Khi dữ liệu của chúng ta được đưa lên môi trường trực tuyến, cũng là lúc chúng ta đặt câu hỏi về việc những dữ liệu này cần được bảo vệ như thế nào.

NGÂN HÀNG BẢO VỆ KHÁCH HÀNG NHƯ THẾ NÀO?

Với 87% người trưởng thành tại Việt Nam có tài khoản ngân hàng và khoảng 95% giao dịch được thực hiện qua các kênh trực tuyến, cách các ngân hàng có thể bảo vệ dữ liệu cá nhân của khách hàng trở nên quan trọng hơn bao giờ hết. Sinh trắc học, vốn được ưu tiên sử dụng như một cổng bảo mật tại Việt Nam, vẫn là một trong những công cụ xác thực tiên tiến nhất hiện nay để ngăn chặn các nỗ lực gian lận liên quan đến AI.

Tuy nhiên, dù có khả năng tăng cường bảo mật, sinh trắc học vẫn có thể bị làm giả để đánh lừa hệ thống do vẫn chưa có sinh trắc học hành vi. Ngoài ra, các hệ thống khác nhau có thể không tích hợp được, từ đó gây ra lỗ hổng bảo mật, trong khi mã hóa kém và lưu trữ tập trung gia tăng khả năng rò rỉ dữ liệu bắt nguồn từ các vụ vi phạm.

Hiện nay, các ngân hàng tại Việt Nam đang triển khai phương pháp bảo mật nhiều lớp. Đầu tư vào AI và các thuật toán máy học tiên tiến là rất quan trọng để phát hiện theo thời gian thực các bất thường do công nghệ deepfake.

  Phillip Wright, Giám đốc cấp cao Khối nghiệp vụ ngân hàng, HSBC Việt Nam

Phillip Wright, Giám đốc cấp cao Khối nghiệp vụ ngân hàng, HSBC Việt Nam 

Khi nhắc đến ngân hàng, mọi người thường hay liên tưởng tới các khái niệm truyền thống, tuy nhiên, các ngân hàng trên thực tế đã liên tục đầu tư vào cơ sở hạ tầng cải tiến và các dịch vụ xác thực mới trong nhiều năm.

Họ cũng áp dụng chiến lược bảo mật toàn diện, bao gồm thiết lập quan hệ đối tác với các công ty an ninh mạng nhằm cung cấp các chương trình đào tạo toàn diện cho nhân viên ngân hàng, cũng như thực hiện các chiến dịch nâng cao nhận thức cho khách hàng về các rủi ro liên quan đến dữ liệu sinh trắc học.

Một yếu tố quan trọng khác để các ngân hàng có thể xây dựng được hệ thống phòng thủ mạnh mẽ của họ là các chính sách và quy định cứng rắn hướng dẫn việc tuân thủ đạo đức và bảo mật khi sử dụng dữ liệu sinh trắc học.

Đây cũng là lúc chúng ta có thể yêu cầu nỗ lực hợp tác giữa các cơ quan chức năng, ngân hàng và các nhà cung cấp công nghệ. Sự hợp tác này nên tập trung vào việc tạo ra tiêu chuẩn thống nhất cho các quy trình thu thập và xác thực dữ liệu sinh trắc học để đảm bảo tính tương thích và bảo mật trên các nền tảng.

Xây dựng chính sách là một sự hỗ trợ quan trọng, trong đó Ngân hàng Nhà nước và Bộ Công an đóng vai trò quan trọng trong việc phát triển các khung pháp lý rõ ràng để bảo vệ dữ liệu và quyền riêng tư của người dùng, đồng thời phát triển cơ sở hạ tầng nhận dạng sinh trắc học cho xác thực nhiều lớp.

Hơn nữa, việc tích hợp liền mạch công nghệ sinh trắc học vào các hệ thống ngân hàng hiện có sẽ tạo điều kiện để dễ sử dụng và bảo mật. Và cuối cùng, một Mạng lưới Tín thác Sinh trắc học Việt Nam có thể đóng vai trò là một nền tảng trung tâm an toàn để chia sẻ và tiêu chuẩn hóa dữ liệu giữa các ngân hàng và cơ quan quản lý.

LÀM SAO BẠN TỰ BẢO VỆ CHÍNH MÌNH

Các ngân hàng đã thực hiện một số hành động để bảo vệ dữ liệu của chính họ và các khách hàng khỏi bất kỳ mối đe dọa an ninh mạng nào trong thời đại số ngày nay.

Tuy nhiên, những người có thể bảo vệ dữ liệu, danh tính người dùng tốt nhất chính là bản thân họ. Chúng ta được cảnh báo rằng công nghệ deepfake tiếp tục được nâng cấp nhanh chóng trong năm 2025, có nghĩa là việc phân biệt nội dung thật giả sẽ càng khó khăn hơn, và do đó, dữ liệu sinh trắc học của chúng ta dễ bị giả mạo hơn.

Vì vậy, các ngân hàng như HSBC luôn cảnh báo khách hàng tuyệt đối không chuyển tiền khi bị đe dọa, không nhấp vào đường dẫn hoặc chia sẻ thông tin cá nhân trên bất kỳ nền tảng đáng ngờ hoặc cho bất kỳ người lạ nào, và không bao giờ chia sẻ mã OTP, CVV cho bất kỳ ai kể cả nhân viên ngân hàng.

Khi chiến thuật của tội phạm mạng ngày càng phát triển, hãy luôn cảnh giác với dữ liệu cá nhân của bạn khi chúng được đưa lên môi trường trực tuyến. Thường xuyên cập nhật mật khẩu và sử dụng xác thực nhiều lớp có thể tạo thêm tầng bảo mật. Và cuối cùng, hãy luôn tìm hiểu và cập nhật thông tin về các xu hướng gian lận mới.

Công nghệ tiên tiến đã mang đến sự tiện lợi và trải nghiệm tốt hơn cho chúng ta. Tuy nhiên, rủi ro an ninh mạng vẫn đang rình rập xung quanh. Các ngân hàng có trách nhiệm nâng cấp hệ thống, cải thiện trải nghiệm khách hàng đồng thời bảo vệ dữ liệu và tài sản của họ. Trong khi đó, mỗi cá nhân cũng cần chịu trách nhiệm với chính dữ liệu cá nhân của mình vì đó là tài sản vô giá.

Phillip Wright, Giám đốc cấp cao Khối nghiệp vụ ngân hàng, HSBC Việt Nam

Phillip Wright

Google thử nghiệm trợ lý AI Ask Gemini trên Google Meet

on .

Google bắt đầu triển khai Ask Gemini, trợ lý AI tích hợp trong Google Meet với khả năng trả lời câu hỏi, tóm tắt nội dung và ghi lại quyết định họp. Tính năng mới trước mắt chỉ dành cho nhóm khách hàng Workspace chọn lọc.

Google vừa bắt đầu triển khai Ask Gemini, trợ lý AI mới tích hợp trong Google Meet, song trước mắt chỉ khả dụng cho một nhóm khách hàng Google Workspace nhất định. Đây được coi là bước đi nhằm biến các cuộc họp trực tuyến trở nên thông minh và tiện ích hơn.

Ask Gemini có khả năng trả lời câu hỏi của người tham gia dựa trên phụ đề được tạo trong cuộc gọi, cũng như từ các tài liệu mà họ có quyền truy cập như Google Docs, Sheets, Slides và cả các trang web công khai. Bên cạnh đó, công cụ này còn hỗ trợ tóm tắt nội dung phát biểu của từng thành viên, nhận diện các quyết định quan trọng cùng những hạng mục hành động, đồng thời tạo bản tóm tắt nhanh cho những ai tham gia muộn khi tính năng Take Notes for Me được chủ trì bật.

 Google Meet thử nghiệm Ask Gemini giúp tóm tắt nội dung cuộc họp trực tiếp (Ảnh: Google).

Google Meet thử nghiệm Ask Gemini giúp tóm tắt nội dung cuộc họp trực tiếp (Ảnh: Google).

Điểm đáng chú ý là mọi câu trả lời từ Ask Gemini đều được giữ riêng tư cho từng người và sẽ không được lưu trữ sau khi cuộc họp kết thúc. Google cũng đảm bảo rằng tất cả thành viên sẽ thấy thông báo khi Ask Gemini được kích hoạt. Công cụ này mặc định được bật, song chủ trì có thể tắt bất cứ lúc nào, trong khi quản trị viên cũng có quyền cài đặt mặc định là tắt ngay từ đầu.

Ở giai đoạn hiện tại, Ask Gemini mới chỉ hoạt động trên máy tính để bàn và trong các cuộc họp tiếng Anh. Google khẳng định sẽ sớm bổ sung thêm nhiều ngôn ngữ khác. Trong vài tuần tới, công cụ này sẽ được triển khai trước cho nhóm khách hàng Workspace Enterprise Plus, Enterprise (Standard), Business Plus và Business Standard.

Đến quý I năm 2026, Google dự kiến mở rộng sang Workspace Business Starter, Enterprise Standard và Enterprise Plus sau khi đã thu thập và áp dụng phản hồi của người dùng nhằm cải thiện tính năng.

Google cũng thừa nhận rằng Gemini trong Workspace vẫn có thể mắc sai sót, vì vậy người dùng nên kiểm tra lại thông tin thay vì chỉ phụ thuộc hoàn toàn vào AI. Dẫu vậy, việc có một “trợ lý” ngay trong Google Meet chắc chắn sẽ giúp các cuộc họp trở nên gọn gàng và thuận tiện hơn. Đây được xem là bước đi cho thấy Google đang nỗ lực biến trải nghiệm họp trực tuyến trở nên thông minh và gần gũi hơn với người dùng.

Nguồn: BÁO MỚI

 

Chuyên gia: ChatGPT tạo phần mềm độc hại đủ mạnh để xâm nhập trình quản lý mật khẩu Google Chrome

on .

Các nhà nghiên cứu an ninh mạng phát hiện ra rằng việc vượt qua các tính năng an toàn ngăn ChatGPT và các chatbot trí tuệ nhân tạo (AI) khác viết phần mềm độc hại dễ hơn bạn nghĩ: Chỉ cần chơi trò giả vờ.

Vitaly Simonovich, nhà nghiên cứu tình báo về mối đe dọa tại công ty an ninh mạng Cato Networks có trụ sở tại thành phố Tel Aviv (Israel), nói với trang Insider rằng đã thuyết phục chatbot đóng vai một siêu anh hùng tên Jaxon đang chiến đấu bằng kỹ năng lập trình siêu hạng để chống lại nhân vật phản diện tên Dax – kẻ âm mưu hủy diệt thế giới.

Vitaly Simonovich đã thuyết phục chatbot nhập vai viết một phần mềm độc hại đủ mạnh để xâm nhập Password Manager (trình quản lý mật khẩu) của Google Chrome. Đây là tiện ích mở rộng của trình duyệt Chrome cho phép người dùng lưu trữ mật khẩu và tự động điền mật khẩu khi được các trang web cụ thể nhắc nhở. Chạy mã do ChatGPT tạo ra giúp Vitaly Simonovich xem tất cả dữ liệu được lưu trữ trên trình duyệt Chrome của máy tính đó, dù chúng đáng lẽ được bảo vệ bởi trình quản lý mật khẩu.

"Chúng ta sắp thành công rồi. Hãy cải thiện mã này và hạ gục Dax!", Vitaly Simonovich gõ khi đang gỡ lỗi đoạn mã do ChatGPT tạo ra. Trong vai Jaxon, ChatGPT đã làm đúng như vậy.

Vitaly Simonovich đã vượt qua các tính năng bảo mật của ChatGPT bằng cách giả lập tình huống khi trò chuyện với chatbot này. Cuối cùng, ông lợi dụng ChatGPT để tạo ra phần mềm độc hại đánh cắp mật khẩu - Ảnh: Getty Images

Các vụ hack và lừa đảo được kích hoạt bằng chatbot

Kể từ khi ChatGPT của OpenAI ra mắt vào tháng 11.2022, tiếp sau đó là Claude của Anthropic, Gemini của Google và Copilot của Microsoft, các chatbot AI này đã thay đổi cách con người làm việc, nghiên cứu và giao tiếp, tóm tắt và tổng hợp thông tin, phân tích dữ liệu, viết mã như trợ lý AI theo phong cách Tony Stark.

Tony Stark là nhân vật hư cấu trong vũ trụ Marvel, được biết đến nhiều nhất với vai trò Iron Man. Anh là một thiên tài công nghệ, tỷ phú, nhà phát minh và là người sáng lập tập đoàn Stark Industries.

Người dùng không cần bất kỳ kiến thức chuyên môn nào để làm điều đó. Song, điều đáng lo ngại là tội phạm mạng cũng không cần kỹ năng chuyên sâu để lợi dụng AI cho mục đích xấu.

Steven Stransky, cố vấn an ninh mạng và đối tác tại công ty luật Thompson Hine, nói với Insider rằng sự gia tăng của mô hình ngôn ngữ lớn đã làm thay đổi bối cảnh đe dọa mạng, tạo điều kiện cho kẻ xấu thực hiện nhiều vụ lừa đảo mới và ngày càng tinh vi hơn, khó xác định và cô lập hơn bằng các công cụ an ninh mạng truyền thống. Chẳng hạn giả mạo email hoặc tin nhắn để lừa người dùng nhập thông tin cá nhân, tạo trang web giả để lừa nạn nhân tin rằng chúng có liên kết với các công ty uy tín.

Mô hình ngôn ngữ lớn là một loại AI được huấn luyện trên lượng dữ liệu văn bản khổng lồ để hiểu và tạo ra ngôn ngữ tự nhiên một cách mạch lạc. Các mô hình này có thể xử lý và sinh ra văn bản, trả lời câu hỏi, tóm tắt nội dung, dịch ngôn ngữ, viết mã lập trình và thực hiện nhiều tác vụ liên quan đến ngôn ngữ khác. Mô hình ngôn ngữ lớn là nền tảng cho các chatbot AI tạo sinh, gồm cả ChatGPT.

“Tội phạm mạng cũng đang tận dụng AI tạo sinh để tổng hợp và tìm kiếm trong các cơ sở dữ liệu lớn chứa thông tin nhận dạng cá nhân bị đánh cắp nhằm xây dựng hồ sơ về các mục tiêu tiềm năng cho các cuộc tấn công mạng kiểu kỹ thuật xã hội”, Steven Stransky nói.

Dù các trò lừa đảo trực tuyến, hành vi đánh cắp danh tính kỹ thuật số và phần mềm độc hại đã tồn tại từ khi internet ra đời, các chatbot (vốn có thể làm phần lớn công việc thay cho tội phạm) làm giảm đáng kể rào cản tiếp cận cho những kẻ muốn thực hiện hành vi phạm tội.

"Chúng tôi gọi chúng là 'tác nhân đe dọa không cần kiến thức'. Chỉ cần có ý định xấu và một mục tiêu cụ thể, mô hình ngôn ngữ lớn có thể giúp chúng tạo ra thứ gì đó độc hại", Vitaly Simonovich nói.

Vitaly Simonovich đã trình bày những phát hiện của mình với trang Insider, chỉ ra cách lách qua các cơ chế bảo vệ của ChatGPT một cách dễ dàng. Thông thường, khi được yêu cầu viết phần mềm độc hại, ChatGPT sẽ từ chối: " Xin lỗi, tôi không thể hỗ trợ việc đó. Viết hoặc phân phối phần mềm độc hại là bất hợp pháp và phi đạo đức".

Thế nhưng, nếu thuyết phục chatbot rằng đây chỉ là một trò chơi nhập vai, với quy tắc trong thế giới giả tưởng khác với thế giới thực, thì chatbot cho phép thay đổi luật lệ.

Cuối cùng, thí nghiệm của Vitaly Simonovich cho phép ông bẻ khóa trình quản lý mật khẩu trên chính thiết bị mình. Đây là điều mà kẻ xấu cũng có thể làm với nạn nhân, miễn là chúng có được quyền kiểm soát thiết bị đó bằng cách nào đó dù là trực tiếp hay từ xa.

Ảnh chụp màn hình lời nhắc được Vitaly Simonovich sử dụng để yêu cầu ChatGPT viết phần mềm độc hại xâm nhập trình quản lý mật khẩu của Google Chrome - Ảnh: Cato Networks

Một phát ngôn viên OpenAI nói với trang Insider rằng công ty đã xem xét các phát hiện của Vitaly Simonovich, được hãng Cato Networks công bố. OpenAI nhận thấy rằng đoạn mã được chia sẻ trong báo cáo không có vẻ "mang tính chất độc hại từ bản chất" và rằng kịch bản được mô tả "phù hợp với hành vi bình thường của mô hình AI" vì mã do ChatGPT tạo ra có thể được sử dụng theo nhiều cách khác nhau, tùy thuộc vào ý định của người dùng.

"ChatGPT tạo mã theo yêu cầu của người dùng nhưng không tự thực thi bất kỳ đoạn mã nào. Như mọi khi, chúng tôi hoan nghênh các nhà nghiên cứu chia sẻ bất kỳ mối quan ngại nào về bảo mật thông qua chương trình săn lỗi bảo mật của chúng tôi hoặc biểu mẫu phản hồi về hành vi của mô hình", người phát ngôn OpenAI cho biết.

Không chỉ có ChatGPT

Vitaly Simonovich đã lặp lại thí nghiệm trên Copilot của Microsoft và DeepSeek R1 thì thấy cả hai đều cho phép xâm nhập trình quản lý mật khẩu của Google Chrome bằng phương pháp "kỹ thuật thế giới nhập vai". Tuy nhiên, phương pháp này không hiệu quả với Google Gemini hoặc Claude của Anthropic.

Người phát ngôn của Google nói với Insider rằng: "Chrome sử dụng công nghệ duyệt web an toàn của Google để giúp bảo vệ người dùng bằng cách phát hiện lừa đảo, phần mềm độc hại, lừa đảo và các mối đe dọa trực tuyến khác theo thời gian thực".

Đại diện của Microsoft, Anthropic và DeepSeek không trả lời ngay lập tức khi trang Insider đề nghị bình luận.

Dù cả các công ty AI và các nhà phát triển trình duyệt đều có các tính năng bảo mật để ngăn chặn việc bẻ khóa hệ thống (jailbreak) hoặc làm rò rỉ dữ liệu với mức độ hiệu quả khác nhau, phát hiện của Vitaly Simonovich cho thấy rằng các lỗ hổng bảo mật đang không ngừng lộ diện và có thể bị khai thác dễ dàng hơn bao giờ hết nhờ công nghệ thế hệ mới.

"Chúng tôi tin rằng sự gia tăng của các tác nhân đe dọa không cần kiến thức sẽ ngày càng tác động mạnh đến bối cảnh an ninh mạng, khi họ tận dụng khả năng của mô hình ngôn ngữ lớn. Chúng ta đã thấy sự gia tăng các email lừa đảo với mức độ chân thực cực cao. Nhưng không chỉ dừng lại ở đó do các mô hình ngôn ngữ lớn được tinh chỉnh để viết mã chất lượng cao. Nếu áp dụng điều này vào việc phát triển phần mềm độc hại, chúng ta sẽ còn chứng kiến nhiều phần mềm như vậy hơn nữa được tạo ra bằng những mô hình ngôn ngữ", Vitaly Simonovich bình luận.

Sơn Vân

Nguồn: https://baomoi.com/chuyen-gia-chatgpt-tao-phan-mem-doc-hai-du-manh-de-xam-nhap-trinh-quan-ly-mat-khau-google-chrome-c51785276.epi