Cẩm nang mới về lừa đảo Deepfake
Chào những người bạn yêu công nghệ! Thật tuyệt vời khi được gặp các bạn hôm nay để cùng bàn về một thứ nghe như trong phim điệp viên kinh phí lớn nhưng lại đang thực sự diễn ra ngay trong túi của chúng ta. Chúng ta đang sống trong thời đại mà smartphone có thể làm những điều kỳ diệu như dịch ngôn ngữ theo thời gian thực hoặc giúp ta tìm công thức nấu ăn hoàn hảo cho ngày Chủ nhật mưa gió. Nhưng có một bước ngoặt mới trong thế giới an toàn trực tuyến mà tất cả chúng ta cần biết. Nó liên quan đến một số phần mềm cực kỳ thông minh có khả năng sao chép giọng nói và khuôn mặt với độ chính xác đáng kinh ngạc. Mặc dù nghe có vẻ hơi đáng sợ, nhưng điều tuyệt vời nhất là khi biết được các thủ thuật này hoạt động như thế nào, chúng ta sẽ khó bị lừa hơn nhiều. Hãy coi đây là cẩm nang chung để luôn đi trước những kẻ lừa đảo kỹ thuật số một bước trong khi vẫn tận hưởng tất cả những điều thú vị mà internet mang lại. Điểm mấu chốt hôm nay là trong khi công nghệ ngày càng thông minh hơn, thì trực giác con người và một vài thói quen đơn giản vẫn là hàng rào phòng thủ tối thượng chống lại mọi trò tinh quái công nghệ cao. Vậy chính xác thì cẩm nang mới mà mọi người đang xì xào này là gì? Hãy tưởng tượng bạn có một con vẹt kỹ thuật số giỏi đến mức nó không chỉ lặp lại những gì bạn nói mà còn có thể bắt chước y hệt giọng của bạn thân, sếp, hay thậm chí là một phát thanh viên tin tức. Đây là những gì chúng ta gọi là công nghệ voice cloning và deepfake. Nó sử dụng các máy tính mạnh mẽ để nghiên cứu giọng nói hoặc khuôn mặt của một người từ một đoạn video hoặc audio clip ngắn. Khi máy tính đã học được các mô hình đó, nó có thể tạo ra các video hoặc cuộc gọi điện thoại hoàn toàn mới trông và nghe giống hệt người đó. Nó giống như một bộ trang phục kỹ thuật số rất khó nhìn thấu ngay từ cái nhìn đầu tiên. Những công cụ này ban đầu được tạo ra cho các mục đích vui vẻ như làm phim hoặc tạo meme hài hước, nhưng một số kẻ hiện đang sử dụng chúng để lừa mọi người gửi tiền hoặc chia sẻ thông tin cá nhân. Nó giống như một trò ảo thuật mà nhà ảo thuật sử dụng một chiếc gương ẩn, chỉ có điều chiếc gương được làm từ mã code và pixel. Tìm thấy lỗi hoặc điều gì đó cần được sửa chữa? Hãy cho chúng tôi biết. Lý do khiến đây là chủ đề nóng trên toàn thế giới hiện nay là vì nó thay đổi cách chúng ta tin tưởng vào những gì mình nghe và thấy. Trước đây, nếu bạn nghe thấy giọng mẹ mình trên điện thoại, bạn biết đó là bà mà không cần suy nghĩ. Giờ đây, vì những công cụ này quá dễ tìm và sử dụng, chúng ta phải tò mò hơn một chút. Đây thực sự là cơ hội tuyệt vời để chúng ta xây dựng một cộng đồng toàn cầu an toàn hơn. Từ Hoa Kỳ đến Singapore, mọi người đang cùng nhau tạo ra những cách tốt hơn để xác minh ai là người ở đầu dây bên kia. Các chính phủ và các công ty công nghệ lớn đang làm việc chăm chỉ để xây dựng các bộ phát hiện có thể nhận diện giọng nói giả nhanh hơn bất kỳ con người nào. Nỗ lực toàn cầu này có nghĩa là tất cả chúng ta đang cùng nhau trở nên am hiểu công nghệ hơn, đây là một chiến thắng lớn cho bất kỳ ai thích sử dụng internet để giữ kết nối với gia đình qua đại dương. Chúng ta đang học cách trân trọng sự kết nối nhân văn thực sự, chân thực hơn bao giờ hết vì chúng ta biết nó quý giá như thế nào. Khi nhìn vào cách điều này tác động đến cuộc sống hàng ngày, vấn đề không phải là sợ hãi, mà là chuẩn bị sẵn sàng. Ví dụ, một thủ thuật phổ biến liên quan đến cuộc gọi điện thoại nghe như một người quản lý yêu cầu nhân viên thực hiện chuyển khoản nhanh cho một giao dịch kinh doanh khẩn cấp. Một năm trước, những cuộc gọi này nghe có vẻ máy móc và kỳ lạ, nhưng ngày nay chúng có thể nghe hoàn toàn tự nhiên với tất cả các ngữ điệu chuẩn xác. Đây là lý do tại sao nhiều công ty hiện đang thiết lập các quy tắc đơn giản như luôn kiểm tra lại yêu cầu thông qua một app khác hoặc một cuộc trò chuyện trực tiếp. Nó cũng xuất hiện trong chính trị, nơi các video giả mạo có thể cố gắng làm cho một ứng cử viên nói điều gì đó mà họ chưa bao giờ nói. Tin tốt là các nền tảng mạng xã hội đang nhanh chóng dán nhãn các video này để tất cả chúng ta có thể thấy sự thật. Bằng cách cập nhật thông tin trên các trang như botnews.today, bạn có thể nắm bắt các xu hướng này và giữ cho cuộc sống kỹ thuật số của mình an toàn.
Một buổi sáng với Sarah và kẻ mạo danh kỹ thuật số
Hãy cùng xem một ngày của Sarah, một chuyên gia marketing am hiểu công nghệ. Một sáng thứ Ba, Sarah nhận được cuộc gọi từ giọng nói nghe hệt em trai cô, Tommy. Giọng nói hoảng loạn nói rằng cậu ấy mất ví trong chuyến đi và cần vài trăm đô la để bắt taxi ra sân bay. Sarah suýt nữa thì mở app ngân hàng, nhưng cô nhớ lại một mẹo đã đọc trên mạng. Cô giữ bình bình tĩnh và hỏi một câu hỏi đơn giản mà chỉ Tommy thật mới biết, như tên con chuột hamster đầu tiên của họ. Giọng nói ở đầu dây bên kia ấp úng rồi cúp máy. Sarah mỉm cười vì cô vừa thắng một vòng đấu với kẻ giả mạo giọng nói. Chiều hôm đó, cô thấy một video của một người nổi tiếng quảng cáo kế hoạch đầu tư giá rẻ. Cô nhận thấy ánh sáng trên mặt người đó hơi giật giật quanh các cạnh, một dấu hiệu kinh điển của deepfake. Cô lướt qua và báo cáo bài đăng, cảm thấy tự hào vì đã góp phần giữ cho internet sạch sẽ cho mọi người. Bạn có thể tự hỏi liệu những thủ thuật kỹ thuật số này có hoàn hảo không, nhưng sự thật là chúng vẫn có những điểm kỳ quặc khiến chúng bị lộ. Tạo ra một deepfake hoàn hảo đòi hỏi sức mạnh máy tính khổng lồ và phần cứng đắt tiền, thứ mà hầu hết những kẻ lừa đảo chưa có quyền truy cập. Điều này có nghĩa là nếu bạn nhìn kỹ hoặc lắng nghe cẩn thận, bạn thường có thể tìm thấy các vết nối trong lớp vải kỹ thuật số. Ví dụ, giọng nói giả thường gặp khó khăn với các phần cảm xúc lộn xộn của lời nói con người, như một tiếng cười bất chợt hoặc một tiếng thở dài thất vọng. Cũng có câu hỏi về quyền riêng tư và cách các mô hình này được huấn luyện, một chủ đề lớn cho các nhà nghiên cứu muốn đảm bảo dữ liệu cá nhân của chúng ta vẫn là của riêng chúng ta. Mặc dù đúng là các công cụ phát hiện đang chạy đua với các công cụ tạo, yếu tố con người trong việc kiểm tra và sử dụng lẽ thường vẫn là tài sản mạnh mẽ nhất của chúng ta. Chúng ta vẫn là người nắm quyền đối với nút “gửi”, và đó là một vị trí rất tốt.
Động cơ công nghệ cao dưới nắp ca-pô
Bây giờ, hãy cùng nhảy vào phần Geek để xem các chuyên gia xử lý việc này đằng sau hậu trường như thế nào! Đối với những người yêu thích khía cạnh kỹ thuật, sự chuyển dịch từ deepfake lý thuyết sang gian lận thực tế chính là sự tích hợp quy trình làm việc. Những kẻ lừa đảo hiện đang sử dụng các API kết nối các mô hình ngôn ngữ lớn với các công cụ chuyển văn bản thành giọng nói với độ trễ cực thấp. Điều này có nghĩa là giọng nói giả có thể phản hồi câu hỏi của bạn gần như ngay lập tức, làm cho cuộc trò chuyện cảm thấy thực tế. Nhiều hệ thống trong số này đang được chạy trên các thiết lập lưu trữ cục bộ sử dụng card đồ họa tiêu dùng mạnh mẽ, cho phép chúng vượt qua một số bộ lọc mà các nhà cung cấp cloud lớn đã đặt ra. Mặt khác, những người tốt đang sử dụng công nghệ tương tự để xây dựng các lớp phòng thủ thời gian thực. Họ tìm kiếm những thứ như “sự không nhất quán về phổ” trong âm thanh, những mô hình nhỏ xảy ra khi máy tính tạo ra âm thanh thay vì cổ họng con người. Đó là một thế giới code hấp dẫn nơi mỗi bản cập nhật mang đến một cách mới để bảo vệ người dùng. Các đội ngũ bảo mật cũng đang tập trung vào suy luận cục bộ, nghĩa là chạy phần mềm phát hiện ngay trên điện thoại của bạn thay vì gửi dữ liệu đến một máy chủ xa xôi. Điều này giữ cho các cuộc trò chuyện của bạn riêng tư trong khi vẫn đưa ra cảnh báo nếu có điều gì đó đáng ngờ. Chúng ta đang thấy rất nhiều sự phát triển trong các công cụ sử dụng chữ ký số kiểu blockchain để chứng minh rằng một tệp video hoặc âm thanh thực sự đến từ nguồn mà nó tuyên bố. Không chỉ là ngăn chặn những thứ xấu, mà là làm cho những thứ thật dễ xác minh hơn. Ngay cả với tất cả các API và mô hình cục bộ lạ mắt này, biện pháp bảo mật hiệu quả nhất vẫn là một quy trình con người đơn giản. Hầu hết các biện pháp phòng thủ thành công hiện nay đều liên quan đến sự kết hợp giữa các cờ tự động và kiểm tra thủ công nhanh chóng bởi một người biết phải tìm gì. Đó là sự hợp tác tuyệt vời giữa bộ não con người và tốc độ máy tính giúp thế giới kỹ thuật số vận hành an toàn cho tất cả chúng ta. Bạn có câu chuyện, công cụ, xu hướng hoặc câu hỏi về AI mà bạn nghĩ chúng tôi nên đề cập không? Gửi cho chúng tôi ý tưởng bài viết của bạn — chúng tôi rất muốn nghe từ bạn. Điểm mấu chốt là mặc dù thế giới deepfake và giả mạo giọng nói đang phát triển, đó không phải là điều chúng ta không thể xử lý với một chút tích cực và một vài thói quen thông minh. Chúng ta đang tiến tới một tương lai nơi việc tò mò hơn một chút là một phần của việc trở thành một công dân kỹ thuật số tốt. Bằng cách thảo luận về những điều này với bạn bè và gia đình, chúng ta làm cho cả thế giới trở thành một nơi an toàn hơn. Cần nhớ rằng công nghệ là một công cụ, và chúng ta là người quyết định cách sử dụng nó cho mục đích tốt. Hãy mở to mắt, luôn tò mò và luôn nhớ rằng một cuộc gọi nhanh cho một người bạn đáng tin cậy là cách tốt nhất để làm sáng tỏ bất kỳ bí ẩn kỹ thuật số nào. Tương lai rất tươi sáng, và với cẩm nang nhận thức mới, chúng ta đã sẵn sàng cho bất kỳ phát minh thú vị nào sắp tới! Khi chúng ta tiếp tục tiến về phía trước, một câu hỏi lớn vẫn còn đó: luật pháp của chúng ta sẽ thay đổi như thế nào để theo kịp những con rối kỹ thuật số này trong những năm tới?
BotNews.today sử dụng các công cụ AI để nghiên cứu, viết, chỉnh sửa và dịch nội dung. Đội ngũ của chúng tôi xem xét và giám sát quy trình để giữ cho thông tin hữu ích, rõ ràng và đáng tin cậy.
Lưu ý của biên tập viên: Chúng tôi tạo trang web này như một trung tâm tin tức và hướng dẫn AI đa ngôn ngữ dành cho những người không phải là chuyên gia máy tính, nhưng vẫn muốn hiểu trí tuệ nhân tạo, sử dụng nó tự tin hơn và theo dõi tương lai đang đến gần.
Có câu hỏi, đề xuất hoặc ý tưởng bài viết? Liên hệ với chúng tôi.