Cảnh báo dùng AI mạo danh người nổi tiếng

Chỉ cần vài giây ghép hình ảnh và giọng nói, đối tượng đã có thể tạo ra một video “người nổi tiếng” quảng cáo các ứng dụng vay tiền cấp tốc, cờ bạc online, bán các sản phẩm thực phẩm chức năng để lừa đảo. Công nghệ AI đang trở thành công cụ nguy hiểm tiếp tay cho các chiêu trò mạo danh, khiến người dùng mất tiền còn danh tiếng của người bị lợi dụng thì tổn hại nghiêm trọng.

Người nổi tiếng bị lôi vào các quảng cáo đen

Thời gian gần đây, nhiều nghệ sĩ đã lên tiếng cảnh báo về việc mình trở thành nạn nhân của công nghệ AI. Giữa tháng 6 vừa qua, ca sĩ Khắc Việt đã phải đăng đàn giải thích việc anh bị cắt ghép giọng nói và khuôn mặt bằng công nghệ deepfake để quảng bá cho các hình thức cờ bạc.

ai1.jpeg -0
Đối tượng lừa đảo dùng công nghệ AI giả mạo ca sĩ Khắc Việt quảng cáo cờ bạc online.

Trên trang cá nhân của mình, ca sĩ Khắc Việt viết: “Thông báo quan trọng - cảnh giác lừa đảo giả mạo: Gửi đến tất cả các bạn, hiện tại đang xuất hiện một video giả mạo, được cắt ghép giọng nói và khuôn mặt của tôi bằng công nghệ deepfake nhằm mục đích lừa đảo, quảng bá cho các hình thức cờ bạc. Tôi xin khẳng định rõ ràng rằng: Tôi chưa từng và sẽ không bao giờ tham gia hay quảng bá cho các hoạt động cờ bạc, lừa đảo hoặc các hình thức vi phạm pháp luật. Đây là hành vi vi phạm nghiêm trọng, không chỉ ảnh hưởng đến tôi mà còn có thể gây thiệt hại cho cộng đồng. Mong tất cả mọi người hãy tỉnh táo, cảnh giác cao độ, không tin - không chia sẻ - không tham gia bất kỳ đường link hay thông tin nào mạo danh tôi. Xin hãy cùng nhau chia sẻ thông tin này để mọi người không trở thành nạn nhân của các chiêu trò lừa đảo tinh vi”.

Ca sĩ Khắc Việt cho rằng, hiện nay khái niệm thật và giả trên mạng xã hội là ranh giới rất mong manh, nhất là đối với những người nhận thức chưa có độ sàng lọc thông tin sẽ khiến họ rất dễ tin vào những gì nhìn thấy. Nam ca sĩ cũng chia sẻ, người lớn tuổi như mẹ anh nếu xem được clip giả mạo sẽ hiểu nhầm con trai tiếp tay cho quảng cáo cờ bạc. Nam ca sĩ cho biết: “Cách nhấn nhá, ngữ điệu giống y hệt cách nói của tôi. Hình ảnh thì có thể người nào thông thạo sẽ nhận ra là có chỉnh sửa, nhưng việc ghép cũng rất mượt mà”.

Tương tự, gia đình nghệ sĩ Lý Hải - Minh Hà cũng là nạn nhân của công nghệ AI. Cụ thể, tối 9/6, vợ chồng đạo diễn Lý Hải - Minh Hà đã đăng tải thông báo trên trang Facebook chính thức (hơn 5,7 triệu người theo dõi) về việc ca sĩ Lý Hải bị các đối tượng xấu sử dụng công nghệ AI để giả mạo hình ảnh, giọng nói, nhằm lôi kéo người dùng tham gia cờ bạc và lừa đảo tuyển dụng việc làm tại nhà. Trong video do AI tạo ra, ca sĩ Lý Hải đã nói: “Chú không biết cháu bao nhiêu tuổi và chú cũng không trong thị trường này nhưng chú biết một đứa em của chú đã kiếm được rất nhiều tiền từ Bacarat…” khi có người hỏi: “Chú Lý Hải ơi, cháu chơi Bacarat thua nhiều quá, chú giúp cháu với ạ”.

Theo chia sẻ của Minh Hà, vợ của ca sỹ Lý Hải thì video do AI tạo ra có độ chân thực cao, giả giọng Lý Hải rất giống, gây hiểu lầm cho người xem. Vợ chồng nghệ sĩ đã đăng tải video và đường link giả mạo ở phần bình luận bài viết, đồng thời kêu gọi cộng đồng cùng báo cáo (report) các nội dung vi phạm.

Ngoài clip giả, một số tài khoản Facebook và Zalo mạo danh gia đình Lý Hải - Minh Hà cũng xuất hiện, đăng tin tuyển dụng trái phép. Minh Hà khẳng định, fanpage chính thức của hai vợ chồng có dấu tick xanh, và mọi thông tin ngoài trang này đều là giả mạo.

Nhiều khán giả theo dõi trang fanpage cũng lên tiếng xác nhận họ từng nhận được tin nhắn rủ rê tham gia các hoạt động đáng ngờ từ tài khoản giả mạo. Một số người may mắn đã cảnh giác và từ chối, tuy nhiên không ít người tỏ ra lo ngại trước mức độ tinh vi của công nghệ lừa đảo bằng AI.

Trước đó, ca sĩ Đan Trường cũng đã lên tiếng về tình trạng các trang Facebook lấy hình ảnh của anh, chỉnh sửa mặt để đưa vào video quảng cáo dịch vụ cho vay nặng lãi. Trong video giả mạo mà nam ca sĩ cảnh báo, đối tượng xấu cắt ghép hình ảnh tinh vi, tạo nên kịch bản Đan Trường mời gọi khán giả sử dụng dịch vụ vay tiền nặng lãi. Fanpage đăng tải video còn chú thích: “Theo chân Đan Trường và Bá Long về quê hỗ trợ hai vợ chồng làm công nhân”.

Trước việc bị lợi dụng hình ảnh, nam ca sĩ kêu gọi khán giả nếu biết diễn viên trong clip giả mạo hình ảnh hãy cung cấp thông tin để phía Đan Trường báo cáo với cơ quan chức năng. Đồng thời nam ca sĩ cũng bày tỏ: “Các trang rác không được lấy hình ảnh của Đan Trường chỉnh sửa mặt mũi rồi giật tít câu view. Đó là hành vi vi phạm bản quyền. Một số video dùng AI lừa đảo chỉnh mặt Đan Trường biến dạng như vậy mà cũng có người tin”.

ai2.jpeg -1
Vợ chồng ca sĩ Lý Hải cảnh báo mọi người về video giả mạo để kêu gọi chơi cờ bạc online.

Không chỉ bị đối tượng xấu dùng công nghệ AI tạo video kêu gọi vay nặng lãi mà ca sĩ Đan Trường còn thường xuyên bị lấy hình ảnh lắp ghép vào các quảng cáo sữa hạt hay thực phẩm chức năng.

Gần đây nhất, trên trang TikTok của “Cô gái có râu” cũng đã đăng bài cảnh báo về việc ca sĩ Mỹ Tâm bị kẻ xấu dùng công nghệ AI cắt ghép tạo video quảng cáo cờ bạc online. Cụ thể, trong video cắt ghép, Mỹ Tâm giả quảng cáo: “Bacarat có boss nào kéo uy tín không ạ? Có em nha. Chị có đứa em Bá Long hoạt động trong ngành bacarat này đã lâu rồi. Bá Long đi kéo trực tiếp, tận nơi, người thật, việc thật luôn và cả kéo online cũng rất uy tín”. Khi xem video này, nhiều người đã để lại comment bày tỏ rằng “nếu không để ý kỹ thì y chang Mỹ Tâm thật” hay “Nếu ai không tỉnh táo thì chắc chắn bị lừa rồi”.

Cần tỉnh táo để phân biệt thật - giả

Theo các chuyên gia công nghệ, đây là sản phẩm của deepfake AI - công nghệ dùng trí tuệ nhân tạo để mô phỏng gương mặt, cử động môi và giọng nói y như thật từ video gốc. Chỉ cần vài phút từ video thật của một người nổi tiếng, AI có thể dựng lên clip hoàn toàn mới, khiến người xem rất khó phân biệt thật - giả.

ai3.jpeg -2
Với những video tạo bằng AI như thế này khiến nhiều người lầm tưởng là thật.

Bằng các video giả mạo, những kẻ lừa đảo sử dụng hình ảnh và giọng nói của người nổi tiếng để giới thiệu ứng dụng “vay tiền siêu tốc, không cần thế chấp”. Trong video, “người nổi tiếng” thuyết phục rằng chỉ cần vài thao tác là có thể nhận tiền về tài khoản trong vòng 5 phút, lãi suất thấp, uy tín, không lo bị đòi nợ. Nhưng thực tế sau khi vay, người dùng mới “ngã ngửa” vì lãi suất cao ngất ngưởng, cộng thêm các loại phí dịch vụ, phí bảo hiểm “tự sinh” khiến số tiền phải trả tăng gấp 3-4 lần chỉ trong vài tuần.

Chưa kể, nếu chậm thanh toán, người vay bị gọi điện đe dọa, khủng bố tinh thần, thậm chí gửi hình ảnh cắt ghép phản cảm tới người thân, đồng nghiệp. Không ít người rơi vào cảnh khốn đốn, mất danh dự, ảnh hưởng tâm lý chỉ vì một cú click “vay nóng” được “người nổi tiếng” quảng bá trên mạng.

Song song với đó, nhiều clip AI giả mạo nghệ sĩ, hot TikToker... còn được dùng để quảng bá các nền tảng “giải trí online” - thực chất là sàn cá cược trá hình. Những nền tảng này thường đội lốt game tài xỉu, đua thú, xổ số, livestream chia thưởng... để lôi kéo người chơi. Người nổi tiếng giả mạo sẽ nói những câu quen thuộc như “Tôi chơi thử, không ngờ thắng đậm”, “Chơi vui mà ra tiền thật” - nhằm tạo cảm giác tin cậy.

Sau khi tham gia, người chơi phải nạp tiền thật để đổi thành “điểm” hoặc “xu”, rồi đặt cược. Khi thua, họ càng nạp thêm với hy vọng gỡ lại. Nhưng khi thắng lớn và muốn rút tiền, sàn sẽ liên tục báo lỗi, yêu cầu “xác minh” rồi chặn tài khoản. Tất cả chỉ là một trò bịp tinh vi được dựng sẵn để moi tiền của nạn nhân còn người nổi tiếng thật thì không hề hay biết mình đã bị sử dụng làm “mồi câu”.

nhi%3fu ngu%3fi không th%3f phân bi%3ft du%3fc dâu là video th%3ft và dâu là video do công ngh%3f ai t%3fo ra.jpeg -3
Nhiều người không thể phân biệt được đâu là video thật và đâu là video do công nghệ AI tạo ra.

Anh Lê Ngọc Hưng (Ứng Hòa, Hà Nội) không giấu được sự lo lắng khi chứng kiến sức “công phá” của các video do AI tạo ra. Anh Hưng cho biết: “Bản thân mình là người biết khá nhiều về công nghệ mà nhiều khi còn bị choáng trước độ như thật của các video do AI tạo ra thì nói gì đến những người già, trẻ nhỏ hay những người ít hiểu biết. Mới đây thôi, mình nghe mẹ mình thở dài bảo là: “Giờ đến những người nổi tiếng còn đi quảng cáo cờ bạc bịp thì đúng là xã hội loạn thật”. Nghe mẹ mình nói thế mà mình thấy giật mình, bởi bà đã không phân biệt được thật giả. Mình tin những người đang nhận thức như mẹ mình còn nhiều lắm. Như vậy sẽ khiến cho họ có cái nhìn lệch lạc và không còn nhiều niềm tin vào cuộc sống. Đó chính là mặt trái của AI”.

So với các hình thức lừa đảo truyền thống, AI mang lại cho kẻ gian lợi thế vượt trội: thao tác nhanh, chi phí thấp, dễ nhân bản và gần như không để lại dấu vết trực tiếp. Mỗi đoạn video deepfake có thể được chia sẻ hàng nghìn lần chỉ trong vài phút, lan truyền chóng mặt trên mạng xã hội mà nạn nhân không kịp phản ứng hay đính chính.

Đặc biệt, khi AI kết hợp với chatbot, giọng nói tổng hợp và dữ liệu cá nhân thu thập từ mạng xã hội, kẻ xấu có thể dựng lên một kịch bản lừa đảo “chân thực như đời thật”, khiến cả những người cẩn thận nhất cũng khó lòng nhận ra.

Không chỉ mạo danh người nổi tiếng, AI còn bị lợi dụng để giả mạo phát ngôn của các lãnh đạo doanh nghiệp, đại diện cơ quan chức năng nhằm lôi kéo người dân tham gia đầu tư, vay vốn, xin việc… Một số đối tượng còn dùng giọng nói AI để gọi điện mạo danh công an, viện kiểm sát, hù dọa nạn nhân “có liên quan đến vụ án” và yêu cầu chuyển tiền để chứng minh vô tội.

Những “cuộc gọi trí tuệ nhân tạo” này đánh trúng tâm lý lo lắng, thiếu hiểu biết về pháp luật của người dân, khiến nhiều người mất tiền trong tích tắc.

Theo chia sẻ của ông Cao Xuân Hoài Vương, Chủ tịch HĐQT AIVA Group (trợ lý ảo AI đầu tiên tại Việt Nam - PV) thì khoảng 70% người dùng không nhận ra đấy là video do AI tạo ra. Từ đó dẫn đến nguy cơ là người dùng sẽ bị lẫn lộn không biết đâu là thật và giả. Thông tin trên Internet giờ đây trở nên không đáng tin nữa, đồng thời nó cũng dẫn đến hệ lụy là, với những người thiếu hiểu biết sẽ có nguy cơ bị lừa đảo.

Theo các chuyên gia, AI thường chưa làm tốt phần chuyển động tự nhiên của khuôn mặt (chuyển động môi, mắt, nhíu mày). Nếu thấy chuyển động môi lệch nhịp so với âm thanh, biểu cảm “lạnh” hoặc không tự nhiên thì có quyền nghi ngờ. Ngoài ra, các video AI thường bị lỗi về ánh mắt (nhìn trân trân, không có phản xạ ánh sáng). Tần suất chớp mắt có thể không bình thường (quá ít hoặc quá nhiều). AI khó tái tạo chi tiết tai, tóc rối hoặc nền phức tạp. Có thể thấy các vùng bị nhòe, biến dạng hoặc rung lắc bất thường. Giọng nói giả AI đôi khi vẫn thiếu ngữ điệu cảm xúc, có thể nghe như “robot”. Một số từ bị đọc sai, phát âm méo mó.

AI là công cụ, không phải là thủ phạm. Cái đáng lo nhất không phải là công nghệ, mà là cách con người sử dụng nó. Nếu không có biện pháp kịp thời và quyết liệt, xã hội sẽ phải đối mặt với làn sóng lừa đảo mới - nơi niềm tin bị đánh cắp bởi những gương mặt nổi tiếng được “nhân bản” bởi máy móc.

Phong Anh

Các tin khác

Dẹp ma trận hóa đơn khống cùng công ty “ma”

Dẹp ma trận hóa đơn khống cùng công ty “ma”

Thời gian qua, tình trạng thành lập các doanh nghiệp “ma” để mua bán hóa đơn giá trị gia tăng (GTGT) trái phép đang diễn biến hết sức phức tạp với quy mô đặc biệt lớn, thủ đoạn tinh vi.

Những ác nhân mang danh “cha - mẹ”!

Những ác nhân mang danh “cha - mẹ”!

Đối với hầu hết các bậc cha mẹ, trẻ em là hạnh phúc của gia đình, là tương lai của xã hội nên cần dành tình yêu thương, che chở, chăm sóc, dạy dỗ tốt nhất. Tuy nhiên, vẫn còn những trường hợp lại xem thành viên nhỏ là gánh nặng, gây cản trở công việc làm ăn nên cứ mỗi khi gặp phải những vấp váp trong cuộc sống là trút những trận đòn roi, thậm chí dùng nhục hình lên cơ thể các cháu để xả giận.

Đào vàng online, vỡ mộng giấc mơ làm giàu xuyên biên giới

Đào vàng online, vỡ mộng giấc mơ làm giàu xuyên biên giới

“Đào vàng ảo, nhận vàng thật” là những lời mời gọi béo bở thu hút đông đảo thợ đào khắp nơi tìm về các “mỏ vàng” xuyên biên giới, nuôi dưỡng giấc mơ giàu sang. Thế nhưng, vàng đâu không thấy, chỉ thấy “vàng mắt” vì rơi vào bẫy lừa đảo…

Kẻ mạo danh và tấn bi kịch của niềm tin

Kẻ mạo danh và tấn bi kịch của niềm tin

Một người bán thịt nặng gần 100kg, gần như không biết tiếng Pháp, lại có thể khiến một người mẹ quý tộc tin rằng đó là đứa con trai thanh lịch của mình. Cuộc nhận mặt kỳ lạ tại Paris năm 1867 không chỉ mở đầu cho một trong những vụ mạo danh chấn động nhất lịch sử tư pháp Anh, mà còn phơi bày một nghịch lý tàn nhẫn: Đôi khi con người ta thèm khát một lời nói dối dễ tin hơn là chấp nhận một sự thật đã biến mất. Vụ việc vì thế không còn dừng lại ở một màn lừa đảo cá nhân mà trở thành điểm tụ của những bất mãn xã hội âm ỉ trong lòng nước Anh thời nữ hoàng Victoria.

Chiêu lừa tinh vi từ những “suất nội bộ giá rẻ”

Chiêu lừa tinh vi từ những “suất nội bộ giá rẻ”

Những lời chào mời “suất nội bộ giá rẻ” đang lan tràn trên mạng xã hội, được dàn dựng bằng kịch bản ngày càng tinh vi từ fanpage giả, giao dịch ảo đến giấy tờ giả, biến niềm tin của người mua thành công cụ để chiếm đoạt tài sản. Không ít nạn nhân chỉ nhận ra mình sập bẫy khi đã mất hàng trăm triệu, thậm chí hàng tỷ đồng và rơi vào vòng xoáy tranh chấp pháp lý kéo dài.

Bí hiểm người mẹ Mỹ khủng bố tin nhắn con gái

Bí hiểm người mẹ Mỹ khủng bố tin nhắn con gái

Một nữ sinh trung học ở Mỹ liên tục nhận được tin nhắn từ số điện thoại lạ khủng bố tinh thần, xúi giục tự tử trong hơn một năm, cho đến khi cảnh sát vào cuộc, phát hiện người gửi không phải ai khác, mà chính là mẹ cô?!

Israel thông qua dự luật tử hình đối với tội danh khủng bố

Israel thông qua dự luật tử hình đối với tội danh khủng bố

Quốc hội Israel (Knesset) vừa thông qua một trong những dự luật gây tranh cãi nhất thời gian gần đây: áp dụng án tử hình đối với tội giết người do khủng bố. Văn bản này tập trung vào các vụ án được xét xử bởi Tòa án quân sự ở Bờ Tây sông Jordan, đồng nghĩa với việc đối tượng chịu tác động chủ yếu là người Palestine, dù văn bản luật không trực tiếp đề cập đến quốc tịch hay nguồn gốc sắc tộc của bị cáo. Bài viết phân tích những khía cạnh pháp lý và tác động an ninh xung quanh dự luật này.

Bên trong những “nhà máy lừa đảo” xuyên quốc gia

Bên trong những “nhà máy lừa đảo” xuyên quốc gia

Ẩn sau những vụ lừa đảo trực tuyến liên tục gia tăng thời gian qua là một thực tế ít được nhìn thấy: hàng chục nghìn người bị dụ dỗ, cưỡng ép hoặc mua bán để làm việc trong những trung tâm lừa đảo. Đây không đơn thuần là những tụ điểm tội phạm nhỏ lẻ, mà đã tiến hóa thành một hệ thống vận hành khép kín, nơi ranh giới giữa thủ phạm và nạn nhân mỏng manh đến mức đáng sợ. Khi tội phạm công nghệ cao được tổ chức hóa theo quy mô tập đoàn, các quốc gia đang phải đối mặt với một cuộc khủng hoảng kép: an ninh mạng và buôn bán người.

Cẩn trọng bẫy vàng giá rẻ trên mạng xã hội

Cẩn trọng bẫy vàng giá rẻ trên mạng xã hội

Giá vàng biến động mạnh không chỉ làm nóng thị trường mà còn kéo theo làn sóng lừa đảo trên mạng xã hội. Từ những tài khoản ảo rao bán “giá hời” đến fanpage “tích xanh” giả mạo thương hiệu lớn, hàng loạt cái bẫy được giăng ra nhằm đánh vào tâm lý muốn mua nhanh, mua rẻ của khách hàng, khiến không ít người lâm vào cảnh tiền thì mất mà vàng thì chẳng nhìn thấy đâu.

Khi AI thành công cụ của tội phạm có tổ chức

Khi AI thành công cụ của tội phạm có tổ chức

Chúng không cần phá khóa, cũng không cần đột nhập máy chủ. Điều chúng cần đơn giản hơn nhiều: khiến bạn tin. Tin vào khuôn mặt người đồng nghiệp quen thuộc trên màn hình, tin vào giọng nói của “sếp” trong điện thoại, tin rằng mọi thứ vẫn đang vận hành đúng quy trình. Trong kỷ nguyên trí tuệ nhân tạo (AI), điểm yếu lớn nhất của hệ thống an ninh không còn nằm ở công nghệ, mà nằm ở nhận thức con người.

Giải mã vụ mất tích bí ẩn suốt 66 năm

Giải mã vụ mất tích bí ẩn suốt 66 năm

Một gia đình ở Mỹ rời nhà đi hái cây Giáng sinh rồi biến mất không dấu vết suốt 66 năm, cho đến khi chiếc xe của họ được kéo lên từ đáy sông, cùng câu trả lời mà cả một thế hệ đã chờ đợi.

Bóc gỡ đường dây giả danh cán bộ cấp cao để lừa đảo

Bóc gỡ đường dây giả danh cán bộ cấp cao để lừa đảo

Đối tượng sinh năm 1992 nhưng tạo dựng được vỏ bọc hoàn hảo trong vai “cán bộ Tổng cục 2, Bộ Quốc phòng” hoặc “Phó Vụ trưởng Ban Nội chính Trung ương, có bố là trung tướng quân đội” để tiếp cận lãnh đạo nhiều đơn vị ở tỉnh Bắc Ninh, thu thập thông tin liên quan đến công tác nhân sự của tỉnh, các chương trình, dự án trên địa bàn tỉnh, sau đó nhận xin việc, chạy dự án cho các cá nhân, công ty có nhu cầu tìm kiếm việc làm, đối tác kinh doanh hoặc huy động vốn đầu tư vào dự án rồi chiếm đoạt tài sản. Đặc biệt, trong đường dây còn có nhiều đối tượng giả danh cán bộ Cục Quản lý vốn, Bộ Tài chính; Thiếu tướng, cán bộ của Tổng cục 2, Bộ Quốc phòng..., có quan hệ mật thiết với các lãnh đạo, có thể xin được dự án đầu tư xây dựng. Bằng sự kiên trì, tỉ mỉ, tinh thông nghiệp vụ, cán bộ, chiến sĩ Phòng Cảnh sát hình sự, Công an tỉnh Bắc Ninh đã bóc gỡ đường dây lừa đảo trên, bắt giữ 5 đối tượng, thu nhiều tang vật liên quan đến việc phạm tội của chúng.

Ngăn chặn thuốc lá lậu - cần biện pháp từ gốc rễ

Ngăn chặn thuốc lá lậu - cần biện pháp từ gốc rễ

Thời gian qua, dù lực lượng chức năng rất quyết liệt vào cuộc nhằm ngăn chặn triệt để hành vi buôn lậu thuốc lá, song với những thủ đoạn ngày càng tinh vi, các đối tượng buôn lậu vẫn tìm mọi cách, lợi dụng các kẽ hở để đưa mặt hàng này vào tiêu thụ trong thị trường nội địa vì mức siêu lợi nhuận. Điều này không chỉ gây thất thu ngân sách nhà nước mà còn ảnh hưởng nghiêm trọng đến sức khỏe cộng đồng và trật tự an toàn xã hội.

Jonathan Wild: Ông trùm tội phạm đội lốt người thực thi công lý

Jonathan Wild: Ông trùm tội phạm đội lốt người thực thi công lý

Đầu thế kỷ XVIII, London từng tin rằng Jonathan Wild (1683-1725) là người giúp lập lại trật tự trong một thành phố đầy rẫy trộm cắp. Nhưng điều lịch sử sau này phơi bày lại hoàn toàn ngược lại: người đàn ông được tôn vinh là “Tổng Tư lệnh chống trộm” ấy thực chất lại là kẻ tổ chức và điều hành một trong những mạng lưới tội phạm tinh vi có tổ chức đầu tiên trong lịch sử nước Anh - mô hình mà nhiều nhà nghiên cứu coi là tiền thân của mafia hiện đại.

Vụ án không có thi thể, không có hung thủ, không có sự thật

Vụ án không có thi thể, không có hung thủ, không có sự thật

Tháng 11/1938, Percy Waddington bước vào đồn cảnh sát Halifax với chiếc áo khoác bị rách toạc và lời khai run rẩy: ông vừa bị một kẻ lạ mặt dùng dao tấn công giữa phố. Các điều tra viên lắng nghe, ghi chép rồi bắt đầu đặt câu hỏi. Mười hai giờ sau, trong phòng thẩm vấn của cảnh sát, khi các câu hỏi đi vào chi tiết - vị trí, khoảng cách, hướng tấn công, Percy Waddington không còn giữ được câu chuyện của mình. Ông đổ sụp và thú nhận: vết rạch trên áo là do chính ông tạo ra. Đó là khoảnh khắc cả một cơn ác mộng kéo dài ba tuần của thị trấn Halifax bắt đầu sụp đổ. Nhưng để hiểu vì sao hàng nghìn người dân bình thường lại có thể bị cuốn vào một cơn loạn thần tập thể đến vậy, phải quay ngược thời gian về những ngày đen tối trước đó.

Bẫy lừa khi vay tiền qua app trên mạng xã hội

Bẫy lừa khi vay tiền qua app trên mạng xã hội

Gần đây thủ đoạn lừa đảo vay tiền nhanh không cần thế chấp qua app “đen” diễn biến phức tạp, bọn lừa đảo giăng sẵn bẫy yêu cầu người vay tải app về điện thoại theo đường link mà chúng cung cấp rồi giở trò, rằng người vay đã thao tác sai nên muốn nhận được tiền ngay phải nộp một số tiền nhất định... Do lơ là cảnh giác, hơn nữa lại trong tình huống cấp bách, người vay nhắm mắt làm theo và đến khi các đối tượng lừa đảo đánh sập trang thì mới biết mình đã bị lừa.

Phá án nhờ dữ liệu số

Phá án nhờ dữ liệu số

Một loạt vụ giết người trên bãi biển Gilgo ở Mỹ chỉ được giải mã khi dữ liệu số và DNA phả hệ lần đầu tiên hợp nhất những hồ sơ rời rạc nhiều thập kỷ thành một bản đồ tội ác thống nhất.

FBI: Tin tặc dùng Telegram phát tán mã độc

FBI: Tin tặc dùng Telegram phát tán mã độc

Cục Điều tra Liên bang Mỹ (FBI) vừa phát đi cảnh báo về làn sóng tấn công mạng gia tăng, trong đó các nhóm tin tặc bị phát hiện lợi dụng ứng dụng Telegram để phát tán mã độc trên diện rộng.

Cái kết đắng của những chủ trang hàng triệu theo dõi

Cái kết đắng của những chủ trang hàng triệu theo dõi

Chỉ một bài đăng trên fanpage đông người theo dõi có thể khiến một doanh nghiệp lao đao sau vài giờ. “review” không còn đơn thuần là chia sẻ trải nghiệm mà đã trở thành công cụ gây sức ép, thậm chí trục lợi, và rất dễ vi phạm pháp luật khi kẻ review sử dụng chính bài viết của mình để làm phương tiện tống tiền.