ĐỜI SỐNG

Sập bẫy AI với chiêu trò giả giọng người thân

Minh Trung • 09-03-2023 • Lượt xem: 2330
Sập bẫy AI với chiêu trò giả giọng người thân

Trong thời đại công nghệ số phát triển như hiện nay, trí tuệ nhân tạo (AI) đang trở thành một trong những công cụ hữu ích cho các lĩnh vực kinh doanh, y tế, giáo dục và nhiều lĩnh vực khác. Tuy nhiên, sức mạnh của AI cũng đang được sử dụng để gây hại cho xã hội. Một số đối tượng xấu đang dùng AI để lừa đảo và gây tổn thất lớn cho những nạn nhân không may mắn.

Cha mẹ của Benjamin Perkin từ Canada đã nhận được một cuộc gọi từ con trai của họ, nhưng thực tế đó là một cuộc gọi lừa đảo từ một AI giả giọng. Người gọi nói rằng, Benjamin đang bị bắt giữ và cần 15.000 USD để được thả tự do.

Sau đó, một người tự nhận là luật sư đã liên lạc với cha mẹ của Benjamin và nói rằng, Benjamin đã gây tai nạn xe hơi, khiến một nhà ngoại giao Mỹ tử vong. Người này cũng cho biết thêm, Benjamin đang bị tống vào tù và cần tiền để chi trả cho các chi phí pháp lý.

Để tăng độ tin cậy của cuộc gọi, người này đã chuyển máy cho Benjamin, nhưng thực tế đó là kết nối với một AI giả giọng. Trong cuộc gọi này, giọng nói của AI giả giọng rất giống với Benjamin, khiến cha mẹ anh ta tin tưởng rằng đó thực sự là con trai của họ đang gặp nguy hiểm và cần sự giúp đỡ. Perkin đã nói, anh ta rất cần tiền và chỉ có thể tin tưởng vào cha mẹ của mình. Benjamin đã kể lại câu chuyện này cho Washington Post.

Vài giờ sau cuộc gọi lừa đảo, "luật sư" đã hối thúc cha mẹ của Benjamin Perkin chuyển tiền, và họ đã ra ngân hàng để rút và gửi 15.449 USD thông qua một hệ thống chuyển đổi sang Bitcoin. Mặc dù họ đã có cảm giác cuộc gọi "có gì đó bất thường", nhưng vẫn quyết định làm theo vì họ tin rằng đã nói chuyện với con trai của mình. Tuy nhiên, vào tối hôm đó khi Benjamin gọi điện, mọi thứ mới được phơi bày.

Lừa đảo qua giọng nói tạo bởi AI - Ảnh minh họa từ Washington Post

Nhiều người sập bẫy lừa đảo qua mạng - Hình ảnh: Internet

Benjamin Perkin đã nghi ngờ rằng các video mà anh đăng trên YouTube đã được sử dụng như là nguồn âm thanh để huấn luyện AI giả giọng của kẻ lừa đảo. “Tiền đã mất. Không có bảo hiểm. Không thể lấy lại được", anh nói.

Bà Ruth Card, 73 tuổi sống tại Regina (Canada), nhận được một cuộc gọi từ một người lạ vào một buổi sáng. Người này cho bà biết rằng, cháu trai của bà, anh Brandon, đang bị tạm giam và cần một số tiền để được tại ngoại. Bà Card chia sẻ, cô cảm thấy cần giúp đỡ cháu trai ngay lập tức và cùng chồng bà đến ngân hàng để rút 2.207 USD, là số tiền tối đa bà có thể rút trong ngày. Bà Card cũng định đến một ngân hàng khác để rút thêm tiền tương tự. Tuy nhiên, may mắn cho bà và chồng là vị giám đốc ngân hàng đã gọi cả hai vào văn phòng và cho biết một khách hàng khác đã nhận được cuộc gọi giống hệt như bà, cũng với giọng giả mạo giống như của người thân. Cả hai đã gọi điện cho cháu trai của mình và xác nhận rằng anh ta không bị bắt giữ. "Chúng tôi đã bị cuốn vào câu chuyện mà không tìm hiểu kỹ. Lúc đó, tôi tin chắc mình đang nói chuyện với Brandon mà không nghi ngờ gì", bà Card chia sẻ.

Trong thời gian gần đây, các vụ lừa đảo công nghệ đã tăng mạnh, tuy nhiên, câu chuyện của bà Card và Perkin cho thấy một xu hướng mới đáng lo ngại: kẻ gian đang sử dụng trí tuệ nhân tạo để sao chép giọng nói và lừa đảo tiền của người khác. Công nghệ này ngày càng rẻ và dễ dàng tiếp cận, khiến cho số lượng nạn nhân tăng lên, đặc biệt là những người cao tuổi.

Theo số liệu từ Ủy ban Thương mại Liên bang Mỹ (FTC), trong năm 2022, mạo danh đã trở thành hình thức lừa đảo phổ biến thứ hai ở Mỹ với hơn 36.000 báo cáo. Kẻ gian thường giả mạo danh tính của bạn bè hoặc gia đình để khiến nạn nhân dễ dàng mắc lừa. Riêng lừa đảo qua điện thoại đã gây thiệt hại hơn 11 triệu USD trong hơn 5.100 trường hợp.

Sự tiến bộ của trí tuệ nhân tạo trong thời gian qua đã đem lại nhiều lợi ích cho nhiều lĩnh vực phát triển, tuy nhiên, cũng là công cụ để kẻ xấu khai thác. Chỉ cần có một mẫu âm thanh trong vài câu nói thu thập được, kẻ gian có thể dùng trí tuệ nhân tạo để tạo ra bản sao giọng nói của một người. Công cụ này sau đó có thể "nói" bất cứ điều gì theo yêu cầu và trở thành phương tiện để lừa đảo. Điều này đặc biệt đáng lo ngại khi số nạn nhân bị lừa đảo ngày càng tăng, chủ yếu là những người lớn tuổi.

Theo dự đoán của các chuyên gia, công cụ giả giọng nói sử dụng trí tuệ nhân tạo đang tràn lan, nhưng các cơ quan quản lý vẫn đang loay hoay để kiểm soát vấn đề này. Tuy nhiên, nạn nhân của các vụ lừa đảo này gần như không thể xác định được thủ phạm do các kẻ gian hoạt động trên khắp thế giới. Trách nhiệm của các công ty sản xuất công cụ AI cũng chưa được xác định với việc chúng bị lạm dụng bởi những người khác.

"Thực sự đáng sợ! Tất cả mọi thứ đang hòa trộn vào nhau, khiến nạn nhân bị mắc kẹt trong một cơn bão lốc", giáo sư Hany Farid tại Đại học California chia sẻ về nỗi lo của mình. "Kẻ gian sử dụng các công cụ này để buộc nạn nhân phải hành động nhanh chóng và không đủ bình tĩnh để xử lý vấn đề, đặc biệt là khi tin rằng người thân của họ đang gặp nguy hiểm".

Theo giáo sư Farid, phần mềm AI hiện nay đã đủ thông minh để phân tích giọng nói của một người. "Chỉ với một bản ghi âm từ Facebook, TikTok, hoặc bất kỳ nguồn dữ liệu nào khác, giọng nói của bạn có thể được sao chép chỉ trong 30 giây", ông nói.

VoiceLab là công cụ AI tái tạo giọng nói do công ty ElevenLabs phát triển và ngày càng “đe dọa” đến sự gia tăng của các phần mềm giả giọng trên thị trường, gây ra tình trạng lạm dụng. Tuy nhiên, theo Will Maxson, một nhân viên của Ủy ban Thương mại Liên bang Mỹ (FTC), việc theo dõi kẻ lừa đảo giọng nói là "đặc biệt khó khăn" vì chúng có thể sử dụng điện thoại từ bất cứ đâu. Ông Maxson khuyên người dùng nếu nhận cuộc gọi từ một người lạ hoặc từ người thân yêu nhờ hỗ trợ, họ nên kiểm tra bằng cách gọi lại cho người đó hoặc gọi cho các thành viên khác trong gia đình để xác minh thông tin trước khi hành động tiếp theo.

Trong bối cảnh mà trí tuệ nhân tạo đang phát triển mạnh mẽ, việc sử dụng AI để lừa đảo đang trở thành một vấn đề ngày càng nghiêm trọng. Để đối phó với tình trạng này, chúng ta cần nỗ lực tăng cường nhận thức của cộng đồng về các hình thức lừa đảo sử dụng AI và cần thiết phải có các chính sách phòng ngừa cũng như các biện pháp xử lý kịp thời. Đồng thời, cần có sự hợp tác chặt chẽ giữa chính quyền, các tổ chức xã hội và người dân để đẩy lùi tình trạng này và bảo vệ tối đa các quyền và lợi ích của người tiêu dùng.