Mục lục:

Giả mạo sâu sắc: Neuroset được dạy để tạo ra âm thanh và video giả
Giả mạo sâu sắc: Neuroset được dạy để tạo ra âm thanh và video giả

Video: Giả mạo sâu sắc: Neuroset được dạy để tạo ra âm thanh và video giả

Video: Giả mạo sâu sắc: Neuroset được dạy để tạo ra âm thanh và video giả
Video: Gặp lão nông ở miền Tây tự mày mò chế tạo điện gió với kinh phí 25 triệu đồng| VTV24 2024, Có thể
Anonim

Để tạo ra một bức tranh tin tức “cá nhân” cho bất kỳ ai trong chúng ta và để làm sai lệch các báo cáo truyền thông được chọn trong đó, ngày nay nỗ lực của một lập trình viên là đủ. Các chuyên gia về trí tuệ nhân tạo và an ninh mạng đã nói với Izvestia về điều này.

Gần đây hơn, họ ước tính rằng điều này đòi hỏi công việc của nhiều nhóm. Việc tăng tốc như vậy đã trở nên khả thi với sự phát triển của các công nghệ tấn công mạng nơ-ron và việc tạo ra âm thanh và video giả sử dụng các chương trình để tạo ra “hàng giả sâu”. Tờ Izvestia gần đây cũng bị một vụ tấn công tương tự, khi ba cổng thông tin của Libya cùng một lúc đăng tải một thông điệp được cho là xuất hiện trong một trong số các số báo. Theo các chuyên gia, trong vòng 3-5 năm tới, chúng ta có thể mong đợi một cuộc xâm lược của những kẻ thao túng robot, chúng sẽ tự động có thể tạo ra rất nhiều hàng giả.

Thế giới mới dũng cảm

Ngày càng có nhiều dự án điều chỉnh bức tranh thông tin theo nhận thức của người dùng cụ thể. Một ví dụ về việc làm của họ là hành động gần đây của ba cổng thông tin của Libya, nơi đã đăng một tin tức được cho là được đăng trên tạp chí Izvestia vào ngày 20 tháng 11. Những kẻ giả mạo đã sửa đổi trang nhất của tờ báo, đăng trên đó một thông điệp về các cuộc đàm phán giữa Thống chế Khalifa Haftar và Thủ tướng Chính phủ Hiệp ước Quốc gia (PNS) Fayez Sarraj. Giả mạo, in kiểu chữ Izvestia, kèm theo một bức ảnh của hai nhà lãnh đạo được chụp vào tháng 5 năm 2017. Nhãn có logo của ấn phẩm đã bị cắt khỏi số xuất bản thực tế của ngày 20 tháng 11 và tất cả các văn bản khác trên trang từ số ra ngày 23 tháng 10.

Từ quan điểm của các chuyên gia, trong tương lai gần, những sai lệch như vậy có thể được thực hiện tự động.

The Truman Show - 2019: Cách mạng thần kinh dạy để làm giả hình ảnh tin tức
The Truman Show - 2019: Cách mạng thần kinh dạy để làm giả hình ảnh tin tức

“Các công nghệ trí tuệ nhân tạo hiện đã hoàn toàn mở và các thiết bị nhận và xử lý dữ liệu ngày càng thu nhỏ và ngày càng rẻ hơn,” Yuri Vilsiter, Tiến sĩ Khoa học Vật lý và Toán học, Giáo sư của Viện Hàn lâm Khoa học Nga, trưởng phòng FSUE “GosNIIAS”, nói với Izvestia. - Do đó, khả năng cao là trong tương lai gần, không phải nhà nước và các tập đoàn lớn, mà chỉ đơn giản là các cá nhân tư nhân sẽ có thể nghe trộm và theo dõi chúng tôi, cũng như thao túng thực tế. Trong những năm tới, bằng cách phân tích sở thích của người dùng, có thể ảnh hưởng đến anh ta thông qua nguồn cấp tin tức và những trò giả mạo rất thông minh.

Theo Yuri Vilsiter, các công nghệ có thể được sử dụng để can thiệp vào môi trường tâm thần đã tồn tại. Về lý thuyết, cuộc xâm lược của robot robot có thể được mong đợi trong một vài năm nữa, ông nói. Một điểm hạn chế ở đây có thể là nhu cầu thu thập cơ sở dữ liệu lớn về các ví dụ về phản ứng của người thực đối với các kích thích nhân tạo với việc theo dõi các hậu quả lâu dài. Việc theo dõi như vậy có thể sẽ cần thêm vài năm nghiên cứu trước khi các cuộc tấn công có chủ đích được thu được một cách nhất quán.

Tấn công tầm nhìn

Alexey Parfentiev, trưởng bộ phận phân tích tại SearchInform, cũng đồng ý với Yuri Vilsiter. Theo ông, các chuyên gia đã dự đoán các cuộc tấn công vào mạng nơ-ron, mặc dù hiện nay trên thực tế không có ví dụ nào như vậy.

- Các nhà nghiên cứu từ Gartner tin rằng vào năm 2022, 30% tổng số cuộc tấn công mạng sẽ nhằm làm hỏng dữ liệu mà mạng nơ-ron được đào tạo và đánh cắp các mô hình học máy được tạo sẵn. Sau đó, chẳng hạn, các phương tiện không người lái có thể đột nhiên bắt đầu nhầm người đi bộ với các đối tượng khác. Và chúng tôi sẽ không nói về rủi ro tài chính hay danh tiếng, mà là về cuộc sống và sức khỏe của những người bình thường, chuyên gia này tin tưởng.

Các cuộc tấn công vào hệ thống thị giác máy tính đang được thực hiện như một phần của nghiên cứu hiện nay. Mục đích của các cuộc tấn công như vậy là làm cho mạng nơ-ron phát hiện thứ gì đó trong ảnh mà không có ở đó. Hoặc, ngược lại, không nhìn thấy những gì đã được lên kế hoạch.

The Truman Show - 2019: Cách mạng thần kinh dạy để làm giả hình ảnh tin tức
The Truman Show - 2019: Cách mạng thần kinh dạy để làm giả hình ảnh tin tức

Vladislav Tushkanov, nhà phân tích web tại Kaspersky Lab giải thích: “Một trong những chủ đề đang phát triển tích cực trong lĩnh vực đào tạo mạng nơ-ron là cái gọi là các cuộc tấn công đối thủ (“adversarial attack.”- Izvestia)”. - Trong hầu hết các trường hợp, chúng nhắm vào hệ thống thị giác máy tính. Để thực hiện một cuộc tấn công như vậy, trong hầu hết các trường hợp, bạn cần có toàn quyền truy cập vào mạng nơ-ron (được gọi là các cuộc tấn công hộp trắng) hoặc kết quả công việc của nó (các cuộc tấn công hộp đen). Không có phương pháp nào có thể đánh lừa bất kỳ hệ thống thị giác máy tính nào trong 100% trường hợp. Ngoài ra, các công cụ đã được tạo ra cho phép bạn kiểm tra mạng nơ-ron về khả năng chống lại các cuộc tấn công của đối thủ và tăng khả năng chống chịu của chúng.

Trong quá trình tấn công như vậy, kẻ tấn công cố gắng bằng cách nào đó thay đổi hình ảnh được nhận dạng để mạng thần kinh không hoạt động. Thông thường, nhiễu được chồng lên ảnh, tương tự như nhiễu xảy ra khi chụp ảnh trong phòng thiếu sáng. Một người thường không nhận thấy rõ sự can thiệp như vậy, nhưng mạng nơ-ron bắt đầu hoạt động sai. Nhưng để thực hiện một cuộc tấn công như vậy, kẻ tấn công cần có quyền truy cập vào thuật toán.

Theo ông Stanislav Ashmanov, Tổng giám đốc Neuroset Ashmanov, hiện chưa có phương pháp xử lý vấn đề này. Ngoài ra, công nghệ này có sẵn cho bất kỳ ai: một lập trình viên trung bình có thể sử dụng nó bằng cách tải xuống phần mềm nguồn mở cần thiết từ dịch vụ Github.

The Truman Show - 2019: Cách mạng thần kinh dạy để làm giả hình ảnh tin tức
The Truman Show - 2019: Cách mạng thần kinh dạy để làm giả hình ảnh tin tức

- Một cuộc tấn công vào mạng nơ-ron là một kỹ thuật và thuật toán để đánh lừa một mạng nơ-ron, khiến nó tạo ra kết quả sai và trên thực tế, phá nó giống như một chiếc khóa cửa, - Ashmanov tin tưởng. - Ví dụ, bây giờ khá dễ dàng khiến hệ thống nhận dạng khuôn mặt nghĩ rằng đó không phải là bạn, mà là Arnold Schwarzenegger ở phía trước - điều này được thực hiện bằng cách trộn các chất phụ gia không thể nhìn thấy bằng mắt người vào dữ liệu đến mạng nơ-ron. Các cuộc tấn công tương tự cũng có thể xảy ra đối với các hệ thống phân tích và nhận dạng giọng nói.

Chuyên gia chắc chắn rằng nó sẽ chỉ trở nên tồi tệ hơn - những công nghệ này đã được phổ biến rộng rãi, những kẻ lừa đảo đã sử dụng chúng và không có biện pháp bảo vệ nào chống lại chúng. Vì không có biện pháp bảo vệ chống lại việc tạo video và giả mạo âm thanh tự động.

Giả mạo sâu sắc

Các công nghệ Deepfake dựa trên Deep Learning (công nghệ học sâu của mạng nơ-ron. - Izvestia) đã và đang là một mối đe dọa thực sự. Giả mạo video hoặc âm thanh được tạo ra bằng cách chỉnh sửa hoặc phủ lên khuôn mặt của những người nổi tiếng, những người được cho là đã phát âm văn bản cần thiết và đóng vai trò cần thiết trong cốt truyện.

Andrey Busargin, giám đốc bộ phận bảo vệ thương hiệu sáng tạo và sở hữu trí tuệ tại Group-IB cho biết: “Deepfake cho phép bạn thay thế chuyển động môi và giọng nói của con người bằng video, điều này tạo ra cảm giác chân thực về những gì đang xảy ra. - Những người nổi tiếng giả mạo “đề nghị” người dùng trên mạng xã hội tham gia rút thăm trúng thưởng các giải thưởng có giá trị (điện thoại thông minh, ô tô, số tiền), v.v. Các liên kết từ các ấn phẩm video như vậy thường dẫn đến các trang web lừa đảo và lừa đảo, nơi người dùng được yêu cầu nhập thông tin cá nhân, bao gồm cả chi tiết thẻ ngân hàng. Những kế hoạch như vậy gây ra mối đe dọa cho cả người dùng bình thường và nhân vật của công chúng, những người được đề cập trong quảng cáo. Loại lừa đảo này bắt đầu liên kết hình ảnh người nổi tiếng với lừa đảo hoặc hàng hóa được quảng cáo, và đây là lúc chúng ta gặp phải thiệt hại về thương hiệu cá nhân, ông nói.

The Truman Show - 2019: Cách mạng thần kinh dạy để làm giả hình ảnh tin tức
The Truman Show - 2019: Cách mạng thần kinh dạy để làm giả hình ảnh tin tức

Một mối đe dọa khác có liên quan đến việc sử dụng "phiếu bầu giả" để gian lận qua điện thoại. Ví dụ, ở Đức, tội phạm mạng đã sử dụng giọng nói trầm để khiến người đứng đầu một công ty con từ Anh chuyển gấp 220.000 euro trong một cuộc điện đàm, đóng giả là giám đốc công ty.vào tài khoản của một nhà cung cấp Hungary. Người đứng đầu hãng Anh nghi bị lừa khi "ông chủ" của anh ta yêu cầu một lệnh chuyển tiền thứ hai, nhưng cuộc gọi đến từ một số của Áo. Vào thời điểm này, đợt đầu tiên đã được chuyển đến một tài khoản ở Hungary, từ đó tiền được rút về Mexico.

Nó chỉ ra rằng các công nghệ hiện tại cho phép bạn tạo ra một bức tranh tin tức cá nhân với đầy tin tức giả mạo. Hơn nữa, sẽ sớm có thể phân biệt được video giả từ video và âm thanh thực chỉ bằng phần cứng. Theo các chuyên gia, các biện pháp cấm phát triển mạng nơ-ron khó có hiệu quả. Vì vậy, chẳng bao lâu nữa chúng ta sẽ sống trong một thế giới mà ở đó cần phải liên tục kiểm tra lại mọi thứ.

“Chúng tôi cần chuẩn bị cho điều này, và điều này phải được chấp nhận,” Yuri Vilsiter nhấn mạnh. - Nhân loại không phải lần đầu tiên xuyên không từ thực tại này sang thực tại khác. Thế giới, cách sống và các giá trị của chúng ta hoàn toàn khác với thế giới mà tổ tiên của chúng ta đã sống cách đây 60.000 năm, 5.000 năm trước, 2.000 năm trước và thậm chí 200-100 năm trước. Trong tương lai gần, một người sẽ bị tước đoạt phần lớn quyền riêng tư và do đó buộc phải không giấu giếm gì và hành động trung thực. Đồng thời, không điều gì trong thực tế xung quanh và trong tính cách của chính mình có thể được lấy làm niềm tin, mọi thứ sẽ phải được đặt câu hỏi và liên tục kiểm tra lại. Nhưng liệu thực tế trong tương lai này có thảm khốc không? Không. Nó chỉ đơn giản là sẽ hoàn toàn khác.

Đề xuất: