con bot Deepfake đang gây xôn xao trên những nhóm kín đáo của vận dụng Telegram với nhân kiệt "lột quần áo" đàn bà chỉ trong vài click chuột.


Chúng ta chắc hẳn đều quen thuộc thuộc với phần mềm chỉnh ảnh Photoshop phổ biến. Cách đây chục năm, phần mềm này từng khiến "sốc" mang lại biết bao người, lúc họ quan sát thấy những bức ảnh khỏa thân "giả" của mình nổi chìm trên mạng. Tình trạng đó lại tái diễn vào những ngày gần đây.

Bạn đang xem: Cách dùng deepfake trên telegram



Những bức ảnh khỏa thân "giả" tràn lan trên mạng (Ảnh: Internet)


Rất nhiều bức ảnh khỏa thân của các thiếu nữ bị đăng lên mạng thôn hội, điểm đáng chú ý rằng chúng đều được làm cho giả bởi bot Deepfake bên trên ứng dụng nhắn tin Telegram. Cụ thể, doanh nghiệp bảo mật Sensity đã phân phát hiện ra một mạng lưới những nhỏ bot Deepfake chuyên cần sử dụng để tạo ra ảnh khỏa thân của phụ nữ trên Telegram - người cần sử dụng tải ảnh phụ nữ có mặc đồ mang đến bot, sau đó bot trả lại ảnh của người phụ nữ đó vào tình trạng khỏa thân.



Ảnh minh họa cho bé bot trong 1 nhóm chat trên Telegram (Ảnh: Chụp màn hình)


Theo The Verge, người dùng có thể gõ tìm kiếm thấy tên của con bot này bên trên thanh công cụ search trên Telegram. Kế bên ra, báo cáo của Sensity (Hà Lan) cũng giải ưa thích thực trạng này này được tạo bằng AI, chúng tất cả thể loại bỏ hầu hết quần áo của nhân vật.

Con bot này có gì đáng sợ?

Sensity nói điều khiến bot này trở nên đáng sợ là dễ sử dụng bởi nó chỉ yêu thương cầu người cần sử dụng tải lên hình ảnh của một phụ nữ, nhấp vào vài ba nút. Sau đó, nó sử dụng AI để xác định thứ gì sẽ nằm dưới lớp quần áo và đã tạo ra ảnh khỏa thân. Giorgio Patrini, Giám đốc điều hành Sensity cùng đồng tác giả của báo cáo nói với CNET: "So với các công cụ ngầm tương tự, bot tăng đáng kể khả năng truy nã cập bằng bí quyết cung cấp mang đến người dùng miễn chi phí và đơn giản, hoạt động trên điện thoại hợp lý cũng như máy vi tính truyền thống. Để "tách" một hình ảnh, người dùng chỉ cần tải ảnh của mục tiêu lên bot với nhận hình ảnh đã xử lý sau một quá trình tạo ngắn".



Quy trình để tạo buộc phải 1 bức ảnh khỏa thân giả (Ảnh: Sensity)


Giorgio Patrini nói rằng hành vi lấy ảnh cá thể và biến thành khỏa thân là tương đối mới, khiến bất kỳ ai có tài năng khoản mạng xã hội đều gặp rủi ro. Quản trị viên bot (được gọi là P) nói với bbc rằng dịch vụ này hoàn toàn để giải trí cùng nó "không mang ý nghĩa xâm hại". Chẳng thể chắc điều quản trị viên nói là sự thật, bởi vì chưng mạng lưới bot, nơi các hình ảnh khỏa thân giả được tạo và phân tách sẻ, bao gồm hơn 100.000 thành viên, chủ yếu ở Nga hoặc Đông Âu. Rất nặng nề để bao gồm thể kiểm thẩm tra được hành vi của mỗi member trong nhóm.

Khi shop chúng tôi thử kích hoạt con bot, nó giới thiệu khả năng xoá quần áo của mọi cô bé chỉ bằng bức ảnh với người coi sẽ gồm hình thể của cô ấy (hoàn toàn không bị làm cho mờ).



Con bot Deepfake giới thiệu khả năng "lột đồ" (Ảnh: Chụp màn hình)


Phương thức "lột đồ" đơn giản đến mức, chỉ cần bức ảnh bất kỳ, nhưng để đúng mực cho AI nhất thì bé bot khuyên nhủ là nên sử dụng hình ảnh áo tắm hoặc trang phục càng "thiếu vải" càng tốt. Dĩ nhiên, bé bot này cũng là công cụ kiếm tiền đến những đối tượng phát hành. Bức ảnh đầu tiên sẽ là miễn phí, nhưng đến những bức về sau, con bot sẽ yêu thương cầu người dùng nạp tiền để sử dụng. Giá bán của 1 bức ảnh sẽ là 100 RUB (khoảng 30 nghìn đồng), 1 tuần sử dụng có giá là 800 RUB (khoảng 250 ngàn đồng), còn để sử dụng trọn đời thì 1.500 RUB (gần 500 ngàn đồng).



Bức ảnh ghi nhận từ đoạn chat trong Telegram (Ảnh: Chụp màn hình)


Đã có hơn 100.000 hình ảnh khỏa thân giả mạo của hơn 10.000 phụ nữ được tạo bằng nhỏ bot này và phân chia sẻ trực tuyến từ tháng 7/2019 đến năm 2020. Họ cho biết phần lớn nạn nhân đều bị lấy ảnh cá thể trên tài khoản mạng làng hội, vào đó gồm một số cô bé tuổi vị thành niên.


Theo cuộc khảo gần cạnh về Deepfake đến thấy, hơn 63% người dùng muốn "lột đồ" các bạn gái, phụ nữ bao phủ cuộc sống của họ, 16% muốn chú ý thấy những minh tinh, celeb, ca sĩ họ ưa chuộng trong trạng thái "trần như nhộng", số còn lại thuộc diện các trường hợp khác. Với tính chất nguy hiểm như vậy, những bạn nữ luôn là đối tượng tiềm năng của những kẻ biến thái bên trên mạng, kể cả đó không phải là người thân quen.


Khảo gần kề về mục đích sử dụng Deepfake "lột đồ" (Ảnh: Sensity)


Chính bởi vậy, trừ lúc bạn là người có tầm ảnh hưởng (influencer), ghê doanh, nghệ sĩ... Cần khiến chú ý, tốt nhất tránh việc kết bạn cũng như đồng ý kết bạn với người mà mình lạ lẫm biết. Việc chấp nhận thành bạn bè với người không quen có thể khiến bạn gặp phải những tình huống oái oăm ko đáng có, qua đó đề xuất hạn chế đăng ảnh khêu gợi, "thiếu vải", chống trường hợp kẻ xấu lợi dụng tấm ảnh đó để sử dụng Deepfake, sau đó phát tán trên mạng nhằm thoa xấu nhân phẩm với danh dự của bạn.

Công nghệ deepfake đang càng ngày càng trở nên thông dụng và hoàn hảo và tuyệt vời nhất hơn, tạo ra những hình ảnh khó phân minh thật mang với đôi mắt thường. Nó đang đem về những mối nguy hại nào mang lại xã hội? Hãy mày mò cùng FUNi
X.


*
*
*

2.1 thành phầm đồi trụy có khuôn mặt người nổi tiếng 

Một trong số những mối đe dọa chính từ technology deepfake là đa số ấn phẩm đồi trụy, hay còn được gọi là phim khiêu dâm deepfake. Có hàng trăm nghìn clip người lớn giả mạo khuôn mặt của rất nhiều nữ nhân vật khét tiếng như Emma Watson, Natalie Portman cùng Taylor Swift.

Chúng áp dụng thuật toán deepfake nhằm ghép khuôn phương diện người khét tiếng vào cơ thể của một thanh nữ diễn viên khiêu dâm, và rất nhiều thu hút hàng trăm triệu lượt xem trên nhiều website nội dung tín đồ lớn.

Xem thêm: Hướng Dẫn Sử Dụng Máy Đo Spo2 Jumper Cách Dùng, Máy Đo Nồng Độ Oxy Trong Máu Spo2 Jumper Jpd 500D

Nhưng những website này đã không còn có hành động nào cùng với những video clip giả mạo này.

Giorgio Patrini, Giám đốc quản lý và điều hành và nhà kỹ thuật trưởng tại Sensity, một công ty phân tích và phát hiện nay deepfake, cho biết: cho tới khi những website này có tại sao đủ mạnh dạn để thải trừ những video này thì sẽ không tồn tại gì cố gắng đổi. Mọi tín đồ vẫn sẽ được tự bởi tải đầy đủ ấn phẩm này lên và mọi website này vẫn đã thu hút được hàng ngàn triệu lượt xem mà không phải nhận ngẫu nhiên hậu trái nào, Những clip này tận dụng và gây những tổn thất mang lại nạn nhân, chứ không còn vô hại như lời xác định của một trong những người sáng tạo nội dung deepfake.

2.2 thành phầm đồi trụy bao gồm khuôn khía cạnh của người không nổi tiếng 

Liệu còn điều gì tồi tệ rộng phim khiêu dâm nhân tạo giả mạo người nổi tiếng? Đó chính là những ấn phẩm đồi trụy hàng fake những thiếu nữ bình thường. Một nghiên cứu và phân tích của Sensity đang phát hiển thị một bot (phần mượt trí tuệ nhân tạo) tất cả khả năng auto tạo deepfake trên áp dụng nhắn tin buôn bản hội, Telegram, đã tạo thành hơn 100.000 hình hình ảnh khỏa thân deepfake. Các hình ảnh bị ăn cắp từ những tài khoản mạng thôn hội.

Bot là một phiên bản hoàn hảo bổ sung cập nhật trong công nghệ deepfake, vì fan tải lên hình hình ảnh không phải kiến ​​thức về deepfake, học đồ vật hoặc AI. Đây là một quá trình tự động, chỉ yêu thương cầu cài đặt lên một hình hình ảnh duy nhất. Hơn nữa, bot Telegram ngoài ra chỉ chuyển động với hình hình ảnh của thiếu nữ với những gói đăng ký được điện thoại tư vấn là thời thượng (giả mạo được nhiều hình hình ảnh hơn, không tồn tại dấu watermark) mà lại lại có giá rất rẻ.

Giống như các bức hình ảnh giả mạo bạn nổi tiếng, phần lớn bức ảnh deepfake tự bot Telegram mang tính chất lợi dụng, lạm dụng cùng vô đạo đức. Chúng có thể dễ dàng được nhờ cất hộ đến hòm thư của chồng, đối tác, member gia đình, người cùng cơ quan hoặc sếp, phá hủy cuộc sống đời thường của của rất nhiều người thiếu nữ này. Kĩ năng xảy ra tống tiền là rất cao, cùng nó còn làm gia tạo thêm những tai hại từ các vấn đề vốn sẽ tồn tại, chẳng hạn như revenge porn (phân phối trực tuyến những hình ảnh nhạy cảm mà không có sự đồng ý của bao gồm chủ nhằm mục đích có tác dụng nhục và gây tổn thương).

Việc đăng deepfake trên Telegram cũng tạo thành một sự việc khác. Telegram là một trong dịch vụ nhắn tin tập trung vào quyền riêng rẽ tư, ko can thiệp vô số vào tín đồ dùng. Nó có chính sách xóa bot khiêu dâm và những bot khác tương quan đến tài liệu fan lớn dẫu vậy lại không làm gì trong trường hợp deepfake này.

2.3 lừa đảo tinh vi 

Bạn vẫn thấy Jordan Peele đóng vai Obama. Trong video đó, anh ta đang lưu ý về sự nguy hiểm của deepfake. Một trong những mối nguy chính tương quan đến technology deepfake là ai kia sẽ có chức năng tạo cùng xuất bản một clip quá thực tế tới nút dẫn mang đến hậu trái nghiêm trọng.

Ở mức tồi tàn nhất, các người cho rằng nội dung của một đoạn phim deepfake hoàn toàn có thể gây ra chiến tranh. Chúng còn có những hậu quả bự khác. Ví dụ: một đoạn phim deepfake bao gồm cảnh giám đốc quản lý điều hành một tập đoàn hoặc một bank đưa ra tuyên bố gây tổn hại, rất có thể gây ra sự sụp đổ của thị phần chứng khoán. Ví dụ này khá cực đoan. Nhưng mà con người còn hoàn toàn có thể kiểm tra và xác minh video, trong những lúc thị trường thế giới lại bội phản ứng liền với tin tức new và tình trạng buôn bán tháo tự động xảy ra thường xuyên.

Một điều khác buộc phải xem xét là số lượng các video và hình hình ảnh giả mạo. Việc tạo nên nội dung deepfake ngày càng rẻ, vấn đề đó làm tăng kĩ năng có một lượng bự nội dung deepfake của và một người, tập trung vào vấn đề truyền cài đặt cùng một thông điệp mang bằng những âm điệu, địa điểm, phong thái khác nhau, v.v.

2.4 che nhận các video/hình hình ảnh có thật 

Những trò deepfake hàng nhái này sẽ trở đề xuất vô thuộc thực tế. Thực tế đến nấc mọi fan sẽ bước đầu đặt câu hỏi: liệu clip này là thật giỏi giả, bất kể nội dung như thế nào.

Nếu ai kia phạm tội và minh chứng duy nhất là một trong video, liệu rất có thể ngăn chúng ta chối rằng “Đó là deepfake, là minh chứng giả” giỏi không? 

2.5 tiến công giả mạo, tiến công phi nghệ thuật và các trò lừa đảo và chiếm đoạt tài sản khác

Tấn công phi chuyên môn (social engineering, chỉ việc thao tác làm việc tâm lý của con bạn để dụ bọn họ tiết lộ các thông tin túng bấn mật) đã và đang là 1 trong những vấn đề nghiêm trọng trong bảo mật thông tin. Họ đều muốn tin cẩn nhau, trên đây là thực chất của bé người. Dẫu vậy sự tin cậy đó hoàn toàn có thể dẫn đến những hành vi vi phạm luật bảo mật, đánh cắp dữ liệu, v.v. Tấn công phi kỹ thuật thường yêu cầu liên hệ theo cá nhân, có thể là qua năng lượng điện thoại, thực hiện cuộc call điện video, v.v.

Giả sử ai đó hoàn toàn có thể sử dụng công nghệ deepfake để bắt trước một vị giám đốc, yêu ước được quyền truy cập vào mã bảo mật hoặc những tin tức nhạy cảm khác. Nó rất có thể kéo theo không hề ít các vụ lừa đảo khác. 

Giờ chúng ta đã biết hầu hết mối nguy do deepfake có lại, làm nạm nào để bạn cũng có thể nhận ra chúng? Hãy cùng tò mò tại đây