Google sử dụng các bản tin cũ và AI để dự đoán lũ quét | TechCrunch
Lũ quét là một trong những thảm họa thời tiết gây chết người nhiều nhất trên thế giới, cướp đi sinh mạng của hơn 5.000 người mỗi năm. Chúng cũng là một trong những hiện tượng khó dự đoán nhất. Nhưng Google tin rằng họ đã giải quyết được vấn đề này theo một cách không ngờ tới — bằng cách đọc tin tức.
Trong khi con người đã thu thập được rất nhiều dữ liệu thời tiết, lũ quét diễn ra quá nhanh và cục bộ để có thể đo lường một cách toàn diện, giống như cách nhiệt độ hoặc thậm chí dòng chảy sông ngòi được theo dõi theo thời gian. Sự thiếu hụt dữ liệu này có nghĩa là các mô hình học sâu, ngày càng có khả năng dự báo thời tiết, không thể dự đoán được lũ quét.
Để giải quyết vấn đề đó, các nhà nghiên cứu của Google đã sử dụng Gemini — mô hình ngôn ngữ lớn của Google — để sàng lọc 5 triệu bài báo từ khắp nơi trên thế giới, phân loại các báo cáo về 2,6 triệu trận lũ khác nhau và biến những báo cáo đó thành một chuỗi thời gian được gắn thẻ địa lý có tên là "Groundsource". Theo Gila Loike, một quản lý sản phẩm tại Google Research, đây là lần đầu tiên công ty sử dụng các mô hình ngôn ngữ cho loại công việc này. Nghiên cứu và bộ dữ liệu đã được chia sẻ công khai vào sáng thứ Năm.
Với Groundsource là cơ sở thực tế, các nhà nghiên cứu đã huấn luyện một mô hình được xây dựng trên mạng nơ-ron Long Short-Term Memory (LSTM) để tiếp nhận các dự báo thời tiết toàn cầu và tạo ra xác suất lũ quét ở một khu vực nhất định. Mô hình dự báo lũ quét của Google hiện đang làm nổi bật các rủi ro cho các khu vực đô thị ở 150 quốc gia trên nền tảng Flood Hub của công ty và chia sẻ dữ liệu của mình với các cơ quan ứng phó khẩn cấp trên khắp thế giới.
António José Beleza, một quan chức ứng phó khẩn cấp tại Cộng đồng Phát triển Nam Phi, người đã thử nghiệm mô hình dự báo với Google, cho biết nó đã giúp tổ chức của ông ứng phó với lũ lụt nhanh hơn. Vẫn còn những hạn chế đối với mô hình này. Chẳng hạn, nó có độ phân giải khá thấp, xác định rủi ro trên các khu vực rộng 20 km vuông. Và nó không chính xác bằng hệ thống cảnh báo lũ lụt của Cơ quan Thời tiết Quốc gia Hoa Kỳ, một phần là do mô hình của Google không kết hợp dữ liệu radar cục bộ, cho phép theo dõi lượng mưa theo thời gian thực.
Tuy nhiên, một phần quan trọng là dự án này được thiết kế để hoạt động ở những nơi mà chính quyền địa phương không đủ khả năng đầu tư vào cơ sở hạ tầng cảm biến thời tiết đắt tiền hoặc không có hồ sơ dữ liệu khí tượng rộng rãi.
Techcrunch event Disrupt 2026: The tech ecosystem, all in one room Your next round. Your next hire. Your next breakout opportunity. Find it at TechCrunch Disrupt 2026, where 10,000+ founders, investors, and tech leaders gather for three days of 250+ tactical sessions, powerful introductions, and market-defining innovation. Register now to save up to $400. Save up to $300 or 30% to TechCrunch Founder Summit 1,000+ founders and investors come together at TechCrunch Founder Summit 2026 for a full day focused on growth, execution, and real-world scaling. Learn from founders and investors who have shaped the industry. Connect with peers navigating similar growth stages. Walk away with tactics you can apply immediatelyOffer ends March 13. San Francisco, CA | October 13-15, 2026 REGISTER NOW
"Bởi vì chúng tôi đang tổng hợp hàng triệu báo cáo, bộ dữ liệu Groundsource thực sự giúp cân bằng lại bản đồ," Juliet Rothenberg, một quản lý chương trình trong nhóm Resilience của Google, nói với các phóng viên trong tuần này. "Nó cho phép chúng tôi ngoại suy sang các khu vực khác nơi không có nhiều thông tin như vậy."
Rothenberg cho biết nhóm hy vọng rằng việc sử dụng LLM để phát triển các bộ dữ liệu định lượng từ các nguồn định tính bằng văn bản có thể được áp dụng cho các nỗ lực xây dựng bộ dữ liệu về các hiện tượng phù du nhưng quan trọng để dự báo khác, như sóng nhiệt và lở đất.
Marshall Moutenot, Giám đốc điều hành của Upstream Tech, một công ty sử dụng các mô hình học sâu tương tự để dự báo dòng chảy sông cho các khách hàng như các công ty thủy điện, cho biết đóng góp của Google là một phần của nỗ lực ngày càng tăng nhằm tập hợp dữ liệu cho các mô hình dự báo thời tiết dựa trên học sâu. Moutenot đồng sáng lập dynamical.org, một nhóm quản lý bộ sưu tập dữ liệu thời tiết sẵn sàng cho máy học dành cho các nhà nghiên cứu và công ty khởi nghiệp.
"Sự khan hiếm dữ liệu là một trong những thách thức khó khăn nhất trong địa vật lý," Moutenot nói. "Đồng thời, có quá nhiều dữ liệu Trái đất, và sau đó khi bạn muốn đánh giá so với sự thật, thì lại không đủ. Đây là một cách tiếp cận thực sự sáng tạo để có được dữ liệu đó."
Topics
- AI
Tim Fernholz
Tim Fernholz là một nhà báo viết về công nghệ, tài chính và chính sách công. Ông đã theo dõi sát sao sự trỗi dậy của ngành công nghiệp vũ trụ tư nhân và là tác giả của cuốn sách Rocket Billionaires: Elon Musk, Jeff Bezos and the New Space Race. Trước đây, ông là phóng viên cấp cao tại Quartz, trang tin tức kinh doanh toàn cầu, trong hơn một thập kỷ, và bắt đầu sự nghiệp của mình với tư cách là một phóng viên chính trị ở Washington, D.C. Bạn có thể liên hệ hoặc xác minh thông tin liên lạc từ Tim bằng cách gửi email tới tim.fernholz@techcrunch.com hoặc qua tin nhắn được mã hóa tới tim_fernholz.21 trên Signal.
View Bio
June 9
Boston, MA
Actively scaling? Fundraising? Planning your next launch?TechCrunch Founder Summit 2026 delivers tactical playbo
Góc nhìn từ cộng đồng
Hãy là người đầu tiên thêm một góc nhìn hữu ích để mạch đọc này trở nên sâu hơn.