tradingkey.logo
tradingkey.logo
ค้นหา

AI web browsers open the door to unseen security risks

Cryptopolitan26 ต.ค. 2025 เวลา 21:05
facebooktwitterlinkedin

AI browsers like Atlas from OpenAI and Comet from Perplexity promise convenience. But they come with major cybersecurity risks, forming a new playground for hackers.

AI powered web browsers compete with traditional browsers like Google Chrome and Brave, aiming to attract billions of daily internet users.

A few days ago, OpenAI released Atlas, while Perplexity’s Comet has been around for months. AI-powered browsers can type and click through pages. Users can tell it to book a flight, summarize emails, or even fill out a form.

Basically, AI-powered browsers are designed to act as digital assistants and navigate the web autonomously. They are being hailed as the next big leap in online productivity.

Security researchers flag AI browser flaws

But most consumers are unaware of the security risks that come with the use of AI browsers. Such browsers are vulnerable to sophisticated hacks through a new phenomenon called prompt injection.

Hackers can exploit AI web browsers, gain access to users’ logged-in sessions, and perform unauthorized actions. For example, hackers can access emails, social media accounts, or even view banking details and move funds.

According to recent research by Brave, hackers can embed hidden instructions inside web pages or even images. When an AI agent analyzes this content and sees the hidden instructions, it can be tricked into executing them as if they were legitimate user commands. AI web browsers cannot tell the difference between genuine and fake user instructions.

Brave engineers experimented with Perplexity’s Comet and tested its reaction to prompt injection. Comet was found to process invisible text hidden within screenshots. This approach enables attackers to control browsing tools and extract user data with ease.

Brave’s engineers called these vulnerabilities a “systemic challenge facing the entire category of AI-powered browsers.”

Prompt injection is hard to fix

Security researchers and engineers say that prompt injection is difficult to fix. That’s because artificial intelligence models do not understand where instructions come from. They can’t differentiate between genuine and fake prompts.

Traditional software can tell the difference between safe input and malicious code, but large language models (LLMs) struggle with that. LLMs process everything, including user requests, website text, and even hidden data, and treat it as one big conversation.

That’s why prompt injection is dangerous. Hackers can easily hide fake instructions inside content that looks safe and steal sensitive information.

AI companies admit prompt injection is a serious threat

Perplexity stated that such attacks don’t rely on code or stolen passwords but instead manipulate the AI’s “thinking process.” The company built multiple defense layers around Comet to stop prompt injection attacks. It uses machine learning models that detect threats in real time and has integrated guardrail prompts that keep the AI focused on user intent. Moreover, the browser requires mandatory user confirmation for sensitive actions like sending an email or purchasing an item.

Security researchers believe AI-powered browsers should not be trusted with sensitive accounts or personal data until major improvements are rolled out. Users can still utilize AI web browsers, but with no access to tools, disabled automated actions, and should avoid using them when logged in to banking accounts, emails, or healthcare apps.

The Chief Information Security Officer (CISO) of OpenAI, Dane Stuckey, acknowledged the dangers of prompt injection and wrote on X, “One emerging risk we are very thoughtfully researching and mitigating is prompt injections, where attackers hide malicious instructions in websites, emails, or other sources to try to trick the agent into behaving in unintended ways.”

He explained that OpenAI’s goal is to make people “trust ChatGPT agent[s] to use your browser, the same way you’d trust your most competent, trustworthy, and security-aware colleague or friend.” Stuckey said the team at OpenAI is “working hard to achieve that.”

Join Bybit now and claim a $50 bonus in minutes

ข้อจำกัดความรับผิดชอบ: ข้อมูลที่ให้ไว้บนเว็บไซต์นี้มีไว้เพื่อวัตถุประสงค์ทางการศึกษาและให้ข้อมูลเท่านั้น และไม่ควรถือเป็นคำแนะนำทางการเงินหรือการลงทุน

บทความแนะนำ

SpaceX เตรียมจัด Roadshow เร็วที่สุดในเดือนมิถุนายน ขณะที่ OpenAI และ Anthropic มีแผนเสนอขายหุ้น IPO ในช่วงครึ่งปีหลัง คาดสามยักษ์ใหญ่อาจดึงอุปสงค์ของ IPO ในกลุ่ม AI ปี 2026 ไปจนหมด

TradingKey - ตลาด IPO ของสหรัฐฯ ในปี 2026 จะเผชิญกับช่วงเวลาการจดทะเบียนที่หนาแน่นที่สุดในประวัติศาสตร์ โดย SpaceX ของ Elon Musk เตรียมเริ่มเดินสายโรดโชว์ IPO ในเดือนมิถุนายน ขณะที่ OpenAI วางแผนเข้าจดทะเบียนในไตรมาสที่สี่ และ Anthropic ตั้งเป้าเข้าจดทะเบียนในตลาดหลักทรัพย์ในเดือนตุลาคม ทั้งนี้ มูลค่าการระดมทุนรวมกันของทั้งสามบริษัทอาจสูงเกินกว่า 2.4 แสนล้านดอลลาร์ ซึ่งถือเป็นการเปิดฉาก "รุกหนัก" ต่อนักลงทุนในตลาดสาธารณะในช่วงเวลาที่เกือบจะพร้อมกัน
ข่าวสารที่สูงสุด
link
ความคาดหวังเรื่องการหยุดยิงกดราคาน้ำมันลงต่ำกว่า 100 ดอลลาร์ ร่วงลงเกือบ 20 ดอลลาร์ระหว่างวัน แนวโน้มราคาน้ำมันจะเป็นอย่างไรต่อไป?
อิหร่านเปิดเผยเงื่อนไขการหยุดยิงทั้ง 10 ประการ ใครคือผู้ชนะระหว่างสหรัฐฯ และอิหร่าน? และส่งผลกระทบต่อสินทรัพย์ทั่วโลกอย่างไร?
ทรัมป์ขู่ ‘กวาดล้าง’ อิหร่าน ‘ในคืนเดียว’ ขณะราคาน้ำมัน WTI พุ่งทะลุ 116 ดอลลาร์: ทิศทางต่อไปของตลาดน้ำมันจะเป็นอย่างไร?
เจพีมอร์แกนเตือนหุ้นเทสลาอาจร่วงลงอีก 60% มัสก์ยังจะสามารถพลิกสถานการณ์ได้หรือไม่?
ทำไมเงินเยนถึงอ่อนค่าอย่างหนัก? เจาะลึกวิกฤตพลังงานและโอกาสที่ USDJPY จะแตะระดับ 175
Tradingkey
Tradingkey
KeyAI