Mất hàng nghìn USD vì AI giả giọng người thân

Hey guys, it’s Gary Vee and today, I want to share a scary story about the growing trend of AI voice scams.
Benjamin Perkin’s family in Canada recently received a call from someone claiming to be a lawyer saying that Ben had been in a car accident that killed an American diplomat and was now in jail, in need of $15,000 for legal fees. The family was convinced by the caller’s voice, which was created using an AI voice-spoofing device. Even when Ben was handed the phone, the family still thought it was him speaking. The family ended up transferring the money, but later realized it was a scam when Ben called them that same night. Unfortunately, the money was lost and there was no way to get it back.
This is not an isolated incident. Mrs. Ruth Card, a 73-year-old in Regina, Canada, received a similar call from a stranger who claimed to be her nephew and needed money to be released from jail. She and her husband withdrew $2,207 from the bank, but thankfully, they were stopped by the bank manager who had discovered the same scam targeting another customer. This time, they were able to avoid losing their money.
The worrying trend here is that fraudsters are using AI voice-mimicking technology to trick people into thinking they are talking to a loved one who needs help. It’s becoming more common and targeting mostly the elderly. The US Federal Trade Commission reported that impersonation is the second most common form of fraud, with phone fraud alone causing more than 5,100 cases and over 11 million USD in damage.
With AI tools, scammers only need a few sentences from a person’s voice to create an almost identical copy. It’s difficult for victims to identify the culprit and for regulators to control. This is a growing problem that needs attention and action.
To protect yourself, always verify the information with other family members and call the person who is having the problem. Be cautious and don’t react too quickly. Let’s be aware of this issue and help spread the word to our loved ones.
 
Chào các bạn, đây là Gary Vee và hôm nay, tôi muốn chia sẻ một câu chuyện đáng sợ về xu hướng lừa đảo bằng giọng nói trí tuệ nhân tạo (AI).
Gia đình của Benjamin Perkin ở Canada vừa nhận được một cuộc gọi từ một người tự xưng là luật sư nói rằng Ben gặp tai nạn xe hơi đã làm chết một nhà ngoại giao Mỹ và hiện đang bị giam giữ, cần 15.000 đô la để trả phí luật sư. Gia đình đã bị thuyết phục bởi giọng nói của người gọi, được tạo ra bằng một thiết bị giả mạo giọng nói AI. Ngay cả khi Ben nhận được điện thoại, gia đình vẫn nghĩ đó là tiếng nói của anh ta. Gia đình cuối cùng đã chuyển tiền, nhưng sau đó nhận ra đó là một vụ lừa đảo khi Ben gọi cho họ cùng đêm đó. Thật không may, số tiền đã mất và không có cách nào để lấy lại.
Đây không phải là một sự cố đơn lẻ. Bà Ruth Card, một người 73 tuổi ở Regina, Canada, đã nhận được một cuộc gọi tương tự từ một người lạ tự xưng là cháu trai của bà và cần tiền để được ra khỏi nhà tù. Bà và chồng đã rút 2.207 đô la từ ngân hàng, nhưng may mắn thay, họ đã bị giám đốc ngân hàng ngăn chặn và phát hiện ra vụ lừa đảo tương tự đang nhắm mục tiêu vào một khách hàng khác. Lần này, họ đã tránh được mất tiền.
Vấn đề đáng lo ngại ở đây là kẻ lừa đảo đang sử dụng công nghệ giả mạo giọng nói AI để lừa người ta tin rằng họ đang nói chuyện với người thân của mình cần giúp đỡ. Nó đang trở nên phổ biến hơn và nhắm mục tiêu chủ yếu vào người cao tuổi. Ủy ban Thương mại Liên bang Mỹ cho biết giả mạo là hình thức lừa đảo phổ biến thứ hai, với gần 5.100 trường hợp và hơn 11 triệu USD thiệt hại chỉ trong lĩnh vực lừa đảo điện thoại.
Với các công cụ AI, kẻ lừa đảo chỉ cần vài câu từ giọng nói của một người để tạo ra một bản sao gần như hoàn toàn giống. Điều này làm cho các nạn nhân khó xác định được kẻ thủ ác và cho các cơ quan quản lý khó kiểm soát. Đây là một vấn đề đang ngày càng trở nên nghiêm trọng và cần sự chú ý và hành động.
Để bảo vệ bản thân, luôn xác minh thông tin với các thành viên trong gia đình khác và gọi cho người đang gặp vấn đề. Hãy cẩn trọng và đừng phản ứng quá nhanh. Hãy nhận thức về vấn đề này và giúp lan truyền thông điệp cho người thân của chúng ta.
Built with Potion.so