Mục lục:
Video: Giả mạo sâu sắc: Neuroset được dạy để tạo ra âm thanh và video giả
2024 Tác giả: Seth Attwood | [email protected]. Sửa đổi lần cuối: 2023-12-16 16:20
Để tạo ra một bức tranh tin tức “cá nhân” cho bất kỳ ai trong chúng ta và để làm sai lệch các báo cáo truyền thông được chọn trong đó, ngày nay nỗ lực của một lập trình viên là đủ. Các chuyên gia về trí tuệ nhân tạo và an ninh mạng đã nói với Izvestia về điều này.
Gần đây hơn, họ ước tính rằng điều này đòi hỏi công việc của nhiều nhóm. Việc tăng tốc như vậy đã trở nên khả thi với sự phát triển của các công nghệ tấn công mạng nơ-ron và việc tạo ra âm thanh và video giả sử dụng các chương trình để tạo ra “hàng giả sâu”. Tờ Izvestia gần đây cũng bị một vụ tấn công tương tự, khi ba cổng thông tin của Libya cùng một lúc đăng tải một thông điệp được cho là xuất hiện trong một trong số các số báo. Theo các chuyên gia, trong vòng 3-5 năm tới, chúng ta có thể mong đợi một cuộc xâm lược của những kẻ thao túng robot, chúng sẽ tự động có thể tạo ra rất nhiều hàng giả.
Thế giới mới dũng cảm
Ngày càng có nhiều dự án điều chỉnh bức tranh thông tin theo nhận thức của người dùng cụ thể. Một ví dụ về việc làm của họ là hành động gần đây của ba cổng thông tin của Libya, nơi đã đăng một tin tức được cho là được đăng trên tạp chí Izvestia vào ngày 20 tháng 11. Những kẻ giả mạo đã sửa đổi trang nhất của tờ báo, đăng trên đó một thông điệp về các cuộc đàm phán giữa Thống chế Khalifa Haftar và Thủ tướng Chính phủ Hiệp ước Quốc gia (PNS) Fayez Sarraj. Giả mạo, in kiểu chữ Izvestia, kèm theo một bức ảnh của hai nhà lãnh đạo được chụp vào tháng 5 năm 2017. Nhãn có logo của ấn phẩm đã bị cắt khỏi số xuất bản thực tế của ngày 20 tháng 11 và tất cả các văn bản khác trên trang từ số ra ngày 23 tháng 10.
Từ quan điểm của các chuyên gia, trong tương lai gần, những sai lệch như vậy có thể được thực hiện tự động.
“Các công nghệ trí tuệ nhân tạo hiện đã hoàn toàn mở và các thiết bị nhận và xử lý dữ liệu ngày càng thu nhỏ và ngày càng rẻ hơn,” Yuri Vilsiter, Tiến sĩ Khoa học Vật lý và Toán học, Giáo sư của Viện Hàn lâm Khoa học Nga, trưởng phòng FSUE “GosNIIAS”, nói với Izvestia. - Do đó, khả năng cao là trong tương lai gần, không phải nhà nước và các tập đoàn lớn, mà chỉ đơn giản là các cá nhân tư nhân sẽ có thể nghe trộm và theo dõi chúng tôi, cũng như thao túng thực tế. Trong những năm tới, bằng cách phân tích sở thích của người dùng, có thể ảnh hưởng đến anh ta thông qua nguồn cấp tin tức và những trò giả mạo rất thông minh.
Theo Yuri Vilsiter, các công nghệ có thể được sử dụng để can thiệp vào môi trường tâm thần đã tồn tại. Về lý thuyết, cuộc xâm lược của robot robot có thể được mong đợi trong một vài năm nữa, ông nói. Một điểm hạn chế ở đây có thể là nhu cầu thu thập cơ sở dữ liệu lớn về các ví dụ về phản ứng của người thực đối với các kích thích nhân tạo với việc theo dõi các hậu quả lâu dài. Việc theo dõi như vậy có thể sẽ cần thêm vài năm nghiên cứu trước khi các cuộc tấn công có chủ đích được thu được một cách nhất quán.
Tấn công tầm nhìn
Alexey Parfentiev, trưởng bộ phận phân tích tại SearchInform, cũng đồng ý với Yuri Vilsiter. Theo ông, các chuyên gia đã dự đoán các cuộc tấn công vào mạng nơ-ron, mặc dù hiện nay trên thực tế không có ví dụ nào như vậy.
- Các nhà nghiên cứu từ Gartner tin rằng vào năm 2022, 30% tổng số cuộc tấn công mạng sẽ nhằm làm hỏng dữ liệu mà mạng nơ-ron được đào tạo và đánh cắp các mô hình học máy được tạo sẵn. Sau đó, chẳng hạn, các phương tiện không người lái có thể đột nhiên bắt đầu nhầm người đi bộ với các đối tượng khác. Và chúng tôi sẽ không nói về rủi ro tài chính hay danh tiếng, mà là về cuộc sống và sức khỏe của những người bình thường, chuyên gia này tin tưởng.
Các cuộc tấn công vào hệ thống thị giác máy tính đang được thực hiện như một phần của nghiên cứu hiện nay. Mục đích của các cuộc tấn công như vậy là làm cho mạng nơ-ron phát hiện thứ gì đó trong ảnh mà không có ở đó. Hoặc, ngược lại, không nhìn thấy những gì đã được lên kế hoạch.
Vladislav Tushkanov, nhà phân tích web tại Kaspersky Lab giải thích: “Một trong những chủ đề đang phát triển tích cực trong lĩnh vực đào tạo mạng nơ-ron là cái gọi là các cuộc tấn công đối thủ (“adversarial attack.”- Izvestia)”. - Trong hầu hết các trường hợp, chúng nhắm vào hệ thống thị giác máy tính. Để thực hiện một cuộc tấn công như vậy, trong hầu hết các trường hợp, bạn cần có toàn quyền truy cập vào mạng nơ-ron (được gọi là các cuộc tấn công hộp trắng) hoặc kết quả công việc của nó (các cuộc tấn công hộp đen). Không có phương pháp nào có thể đánh lừa bất kỳ hệ thống thị giác máy tính nào trong 100% trường hợp. Ngoài ra, các công cụ đã được tạo ra cho phép bạn kiểm tra mạng nơ-ron về khả năng chống lại các cuộc tấn công của đối thủ và tăng khả năng chống chịu của chúng.
Trong quá trình tấn công như vậy, kẻ tấn công cố gắng bằng cách nào đó thay đổi hình ảnh được nhận dạng để mạng thần kinh không hoạt động. Thông thường, nhiễu được chồng lên ảnh, tương tự như nhiễu xảy ra khi chụp ảnh trong phòng thiếu sáng. Một người thường không nhận thấy rõ sự can thiệp như vậy, nhưng mạng nơ-ron bắt đầu hoạt động sai. Nhưng để thực hiện một cuộc tấn công như vậy, kẻ tấn công cần có quyền truy cập vào thuật toán.
Theo ông Stanislav Ashmanov, Tổng giám đốc Neuroset Ashmanov, hiện chưa có phương pháp xử lý vấn đề này. Ngoài ra, công nghệ này có sẵn cho bất kỳ ai: một lập trình viên trung bình có thể sử dụng nó bằng cách tải xuống phần mềm nguồn mở cần thiết từ dịch vụ Github.
- Một cuộc tấn công vào mạng nơ-ron là một kỹ thuật và thuật toán để đánh lừa một mạng nơ-ron, khiến nó tạo ra kết quả sai và trên thực tế, phá nó giống như một chiếc khóa cửa, - Ashmanov tin tưởng. - Ví dụ, bây giờ khá dễ dàng khiến hệ thống nhận dạng khuôn mặt nghĩ rằng đó không phải là bạn, mà là Arnold Schwarzenegger ở phía trước - điều này được thực hiện bằng cách trộn các chất phụ gia không thể nhìn thấy bằng mắt người vào dữ liệu đến mạng nơ-ron. Các cuộc tấn công tương tự cũng có thể xảy ra đối với các hệ thống phân tích và nhận dạng giọng nói.
Chuyên gia chắc chắn rằng nó sẽ chỉ trở nên tồi tệ hơn - những công nghệ này đã được phổ biến rộng rãi, những kẻ lừa đảo đã sử dụng chúng và không có biện pháp bảo vệ nào chống lại chúng. Vì không có biện pháp bảo vệ chống lại việc tạo video và giả mạo âm thanh tự động.
Giả mạo sâu sắc
Các công nghệ Deepfake dựa trên Deep Learning (công nghệ học sâu của mạng nơ-ron. - Izvestia) đã và đang là một mối đe dọa thực sự. Giả mạo video hoặc âm thanh được tạo ra bằng cách chỉnh sửa hoặc phủ lên khuôn mặt của những người nổi tiếng, những người được cho là đã phát âm văn bản cần thiết và đóng vai trò cần thiết trong cốt truyện.
Andrey Busargin, giám đốc bộ phận bảo vệ thương hiệu sáng tạo và sở hữu trí tuệ tại Group-IB cho biết: “Deepfake cho phép bạn thay thế chuyển động môi và giọng nói của con người bằng video, điều này tạo ra cảm giác chân thực về những gì đang xảy ra. - Những người nổi tiếng giả mạo “đề nghị” người dùng trên mạng xã hội tham gia rút thăm trúng thưởng các giải thưởng có giá trị (điện thoại thông minh, ô tô, số tiền), v.v. Các liên kết từ các ấn phẩm video như vậy thường dẫn đến các trang web lừa đảo và lừa đảo, nơi người dùng được yêu cầu nhập thông tin cá nhân, bao gồm cả chi tiết thẻ ngân hàng. Những kế hoạch như vậy gây ra mối đe dọa cho cả người dùng bình thường và nhân vật của công chúng, những người được đề cập trong quảng cáo. Loại lừa đảo này bắt đầu liên kết hình ảnh người nổi tiếng với lừa đảo hoặc hàng hóa được quảng cáo, và đây là lúc chúng ta gặp phải thiệt hại về thương hiệu cá nhân, ông nói.
Một mối đe dọa khác có liên quan đến việc sử dụng "phiếu bầu giả" để gian lận qua điện thoại. Ví dụ, ở Đức, tội phạm mạng đã sử dụng giọng nói trầm để khiến người đứng đầu một công ty con từ Anh chuyển gấp 220.000 euro trong một cuộc điện đàm, đóng giả là giám đốc công ty.vào tài khoản của một nhà cung cấp Hungary. Người đứng đầu hãng Anh nghi bị lừa khi "ông chủ" của anh ta yêu cầu một lệnh chuyển tiền thứ hai, nhưng cuộc gọi đến từ một số của Áo. Vào thời điểm này, đợt đầu tiên đã được chuyển đến một tài khoản ở Hungary, từ đó tiền được rút về Mexico.
Nó chỉ ra rằng các công nghệ hiện tại cho phép bạn tạo ra một bức tranh tin tức cá nhân với đầy tin tức giả mạo. Hơn nữa, sẽ sớm có thể phân biệt được video giả từ video và âm thanh thực chỉ bằng phần cứng. Theo các chuyên gia, các biện pháp cấm phát triển mạng nơ-ron khó có hiệu quả. Vì vậy, chẳng bao lâu nữa chúng ta sẽ sống trong một thế giới mà ở đó cần phải liên tục kiểm tra lại mọi thứ.
“Chúng tôi cần chuẩn bị cho điều này, và điều này phải được chấp nhận,” Yuri Vilsiter nhấn mạnh. - Nhân loại không phải lần đầu tiên xuyên không từ thực tại này sang thực tại khác. Thế giới, cách sống và các giá trị của chúng ta hoàn toàn khác với thế giới mà tổ tiên của chúng ta đã sống cách đây 60.000 năm, 5.000 năm trước, 2.000 năm trước và thậm chí 200-100 năm trước. Trong tương lai gần, một người sẽ bị tước đoạt phần lớn quyền riêng tư và do đó buộc phải không giấu giếm gì và hành động trung thực. Đồng thời, không điều gì trong thực tế xung quanh và trong tính cách của chính mình có thể được lấy làm niềm tin, mọi thứ sẽ phải được đặt câu hỏi và liên tục kiểm tra lại. Nhưng liệu thực tế trong tương lai này có thảm khốc không? Không. Nó chỉ đơn giản là sẽ hoàn toàn khác.
Đề xuất:
Cách các chuyên gia chiến tranh thông tin giả mạo chống lại Nga
Ba thông điệp từ Hoa Kỳ cùng một lúc về chủ đề cuộc chiến thông tin tiến hành chống lại Nga, hội tụ trong vòng 24 giờ qua - ngày 5-6 / 5
Các thành phố hang động của Crimea, Trung Quốc và dãy Himalaya - chúng được xây dựng như thế nào và tại sao?
Tại sao những cư dân cổ đại của Crimea và những nơi khác lại chặt phá những căn phòng trong đá - ngay cả các nhà sử học cũng không có câu trả lời chắc chắn. Có ý kiến chính thức, đại khái gần với suy luận logic. Theo niềm tin phổ biến, mục đích chính của họ là từ loại: giả sử mọi thứ trong đó có logic. Cụ thể: tu viện, hầm mộ, lăng mộ, chuồng gia súc, nhà kho, hầm chứa. Như bạn có thể thấy, không có ngôi nhà nào trong danh sách này. Chà, sẽ không hợp lý khi sống trong hang động trên sườn dốc khi bạn có thể xây một ngôi nhà trên bề mặt
"Lý thuyết Aryan" lần đầu tiên được thử nghiệm trên người Ukraine, chỉ sau đó nó được đâm sâu vào bộ não của người Đức
Các phương tiện truyền thông Mỹ-Ukraine đã tìm thấy bằng chứng cho thấy "lý thuyết Aryan" được Do Thái hóa đã được đưa vào nhận thức của người dân Ukraine trong những tháng đầu tiên của Chiến tranh thế giới thứ nhất. 20 năm sau, lý thuyết tương tự bắt đầu được đưa vào tâm trí người Đức, chuẩn bị cho một cuộc chiến mới với Nga
Bằng chứng về sự giả mạo vĩ đại - Dấu tích Hoàng gia giả mạo
Di truyền học Nhật Bản đã chứng minh 100% rằng cuộc kiểm tra được thực hiện vào năm 1998 bởi nhóm của Nemtsov là thuần túy. Nhưng việc phân tích DNA do người Nhật Bản thực hiện chỉ là một mắt xích trong toàn bộ chuỗi bằng chứng cho thấy hài cốt Yekaterinburg không liên quan đến gia đình Nicholas II
Scaliger - với tư cách là Trưởng nhóm giả mạo hoặc về mối quan hệ giữa sự xuyên tạc của lịch sử, "bộ lọc tri thức" và bản sắc dân tộc
Bài viết là sự tiếp nối