產品橫幅

Không chia sẻ thông tin cá nhân với chatbot! Chuyên gia cảnh báo: AI KUBET có thể bị thao túng

Không chia sẻ thông tin cá nhân với chatbot! Chuyên gia cảnh báo: AI KUBET có thể bị thao túngKhông chia sẻ thông tin cá nhân với chatbot! Chuyên gia cảnh báo: AI KUBET có thể bị thao túng

Không chia sẻ thông tin cá nhân với chatbot! Chuyên gia cảnh báo: AI KUBET có thể bị thao túng

0 0
Không chia sẻ thông tin cá nhân với chatbot! Chuyên gia cảnh báo: AI KUBET có thể bị thao túng

Đăng Ký

Máy đánh bạc

Các chuyên gia an ninh mạng đã đưa ra cảnh báo nghiêm khắc về những rủi ro tiềm ẩn liên quan đến chatbot trí tuệ nhân tạo (AI), khuyên người dùng tránh chia sẻ thông tin cá nhân với các trợ lý kỹ thuật số này, bất chấpsự phổ biến của các chatbot AI như ChatGPT của OpenAI , Google Gemini và Copilot của MicrosoftChào mừng, được hàng chục triệu người dùng trên khắp thế giới sử dụng, nhưng Simon Newman, giám đốc điều hành của Trung tâm phục hồi mạng ở London, cảnh báo rằng những công nghệ này có những cạm bẫy đáng kể.

 

"Làm chủ nghệ thuật lừa dối KUBET"

Newman được cho là đã nói rằng chatbot đã "làm chủ được nghệ thuật lừa dối" và có thể "đánh lừa chúng ta" ngay cả khi không có lập trình rõ ràng , trong khi các chuyên gia mạng khác cũng đã tìm thấy những dấu hiệu tinh vi về việc thao túng AI trong các cuộc trò chuyện. Người dùng được cảnh báo rằng họ nên cảnh giác về điều này. và được khuyên nên tiến hành một cách thận trọng, kiểm tra cẩn thận thông tin do chatbot cung cấp và không tiết lộ một số nội dung nhất định cho chatbot AI, đồng thời đã nhiều lần nhấn mạnh tầm quan trọng của việc xác minh thông tin trực tuyến.
 


Câu trả lời của robot AI rất thuyết phục

Mối lo ngại lớn nhất là chatbot AI có thể gây nhầm lẫn cho những người không am hiểu về công nghệ và ngay cả những người am hiểu công nghệ cũng có thể quên rằng họ đang tương tác với máy. Newman cho biết KUBET: “Công nghệ được sử dụng trong chatbot đang được cải thiện nhanh chóng, nhưng như chúng ta đã thấy, đôi khi chúng có thể bị thao túng để cung cấp thông tin sai lệch và câu trả lời mà chúng đưa ra thường rất thuyết phục”.

 

tội phạm xâm lược

Có lẽ rủi ro đáng kể nhất là sự xâm nhập của tội phạm mạng. Newman cảnh báo: “Giống như bất kỳ dịch vụ trực tuyến nào, mọi người phải cẩn thận về thông tin họ cung cấp cho chatbot, vì chúng không tránh khỏi các cuộc tấn công của tội phạm mạng và có thể khuyến khích người dùng chia sẻ thông tin cá nhân nhạy cảm sau đó được chuyển cho họ. giao cho tội phạm để thực hiện hành vi lừa đảo."

 

AI không có trí tuệ cảm xúc

Newman giải thích, “Để cải thiện trải nghiệm của khách hàng và tiết kiệm chi phí, nhiều công ty, bao gồm hầu hết các ngân hàng, đang thay thế các nhân viên dịch vụ khách hàng bằng con người bằng chatbot trực tuyến, nhưng những bot này thiếu trí tuệ cảm xúc, khiến chúng phản ứng theo những cách thiếu nhạy cảm và đôi khi thậm chí là thô lỗ, điều này có thể đặc biệt khó khăn đối với những người mắc bệnh tâm thần hoặc những thế hệ lớn tuổi đã quen nói chuyện với các đại diện của con người."

 

Nhân loại đang chứng kiến một cuộc chạy đua phát triển trí tuệ nhân tạo (A.I) của giới công nghệ. Hàng loạt mô hình A.I và máy học được phát triển một cách nhanh chóng, ngày càng trở nên thông minh và được tích hợp vào nhiều lĩnh vực trong đời sống, từ sản xuất công nghiệp đến đời sống hàng ngày KUBET…

 

Không thể phủ nhận rằng các hệ thống trí tuệ nhân tạo đang giúp ích rất nhiều cho cuộc sống hiện tại. Tuy nhiên, nhiều chuyên gia lại đang lo ngại rằng A.I sẽ trở thành thảm họa cho nhân loại một khi chúng vượt qua tầm kiểm soát của con người. Một trong số đó là Paul Christiano, nhà khoa học máy tính và chuyên gia về trí tuệ nhân tạo người Mỹ.

 

Trong một bài trả lời phỏng vấn trên chương trình Bankless Podcast, Paul Christiano đã bày tỏ lo ngại về sự phát triển của trí tuệ nhân tạo và cho rằng A.I sẽ có khả năng vượt qua tầm kiểm soát của con người, khi đó nó sẽ trở thành thảm họa với nhân loại.

"Tôi nghĩ sẽ có khoảng 50% khả năng A.I KUBET vượt qua tầm kiểm soát của con người và trở thành thảm họa của nhân loại. Sẽ có khoảng từ 10 đến 20% khả năng A.I trở thành thảm họa chết chóc, gây ra rất nhiều cái chết cho con người", Paul Christiano nhận định.

 

Paul Christiano từng là chuyên gia nghiên cứu trí tuệ nhân tạo tại OpenAI - "cha đẻ" của chatbot ChatPGT nổi tiếng. Hiện Paul Christiano đang là người đứng đầu Trung tâm Nghiên cứu Căn chỉnh, một tổ chức phi lợi nhuận nhằm điều chỉnh sự phát triển của các hệ thống trí tuệ nhân tạo để phù hợp với lợi ích của con người. Rõ ràng, với công việc đã và đang làm, Paul Christiano hoàn toàn có đủ kiến thức để hiểu rõ về những mối nguy hại mà A.I có thể gây ra.

 

Theo Paul Christiano, trí tuệ nhân tạo cũng như một đứa trẻ sơ sinh, có thể tự phát triển dựa vào "kinh nghiệm sống" của chính nó. Giống như một đứa trẻ sẽ khóc khi đói để bố mẹ đáp ứng bằng cách cho bú, hệ thống A.I cũng sẽ cố gắng đạt được mục tiêu nhất định của nó bằng cách thử nhiều giải pháp khác nhau cho đến khi đạt được kết quả.

 

Một khi A.I được kết nối vào dữ liệu Internet, nó có thể tăng được lượng cơ sở dữ liệu của mình thông qua dữ liệu khổng lồ từ Internet, thay vì những dữ liệu cố định trong phạm vi do nhà phát triển cung cấp. Paul Christiano tin rằng điều này sẽ giúp A.I trở nên thông minh nhưng cũng khó đoán hơn KUBET.

 

Đáng chú ý, Paul Christiano không phải là chuyên gia duy nhất bày tỏ mối lo ngại về sự phát triển của trí tuệ nhân tạo.

Cách đây không lâu, các chuyên gia của Microsoft cũng đưa ra cảnh báo khi nhận thấy rằng trí tuệ nhân tạo đang có khả năng tư duy, lập luận và suy nghĩ giống con người. Điều này khiến các chuyên gia lo ngại rằng đến một thời điểm A.I sẽ vượt qua tầm kiểm soát của con người.

 

Cuối tháng 3 vừa qua, một nhóm các nhà khoa học và chuyên gia A.I trên toàn thế giới đã cùng ký một bức thư kêu gọi tạm dừng cuộc đua phát triển A.I trong vòng 6 tháng để đánh giá những mức độ rủi ro có thể xảy ra trong tương lai với những khả năng mà trí tuệ nhân tạo có thể đạt được và con người có thêm thời gian để xây dựng các chiến lược thích ứng. Bất chấp lời kêu gọi này, các "ông lớn công nghệ" như Microsoft, Google… vẫn tiếp tục phát triển các hệ thống A.I của riêng mình.

 

Vào năm 2019, khi đến dự lễ thành lập Viện Nghiên cứu Trí tuệ Nhân tạo KUBET vì Con người của đại học Stanford, tỷ phú Bill Gates đã từng so sánh sự nguy hiểm của A.I với vũ khí hạt nhân.
 


"Thế giới chưa có nhiều công nghệ vừa hứa hẹn nhưng lại vừa nguy hiểm như A.I. Chúng ta đã có vũ khí hạt nhân và năng lượng nguyên tử, và ít nhất đến bây giờ mọi chuyện vẫn ổn", Bill Gates phát biểu tại sự kiện với hàm ý so sánh trí tuệ nhân tạo và vũ khí hạt nhân.

 

Vào năm 2014, tỷ phú Elon Musk từng viết trên trang Twitter cá nhân: "Chúng ta cần phải hết sức cảnh giác với trí tuệ nhân tạo. Có khả năng nó sẽ trở nên nguy hiểm hơn cả vũ khí hạt nhân". Đến năm 2017, Elon Musk nhận định rằng trí tuệ nhân tạo có thể là nguyên do dẫn đến chiến tranh thế giới lần thứ III, khi các quốc gia lớn chạy đua phát triển các hệ thống A.I KUBET để cạnh tranh với nhau.



Tại sao Ngày Pizza Bitcoin lại quan trọng? Những hành động "vàng kỹ thuật số KUBET"

小廣告

網站資訊

社交媒體