
Prithvi - Wikipedia
Prithvi (Sanskrit: पृथ्वी, Pṛthvī, also पृथिवी, Pṛthivī, "the Vast One", also rendered Pṛthvī Mātā), is the Sanskrit name for the earth, as well as the name of the goddess-personification of it in Hinduism.
NASA-IMPACT/Prithvi-EO-2.0 - GitHub
2024年12月5日 · This repository contains code and examples based on the TerraTorch library for fine-tuning Prithvi-EO-2.0, a more powerful version of the foundation model Prithvi developed by IBM and NASA. Trained on 4.2M global time series samples on the JUWELS HPC system at the Jülich Supercomputing Centre (JSC) using NASA’s Harmonized Landsat and ...
简析IBM联合NASA开源的地理空间基础模型 - CSDN博客
2023年8月11日 · Prithvi是NASA 和 IBM 创建的一个用于遥感分类的开源基础模型,使用Landsat 和 Sentinel-2 ( HLS ) 数据集进行训练,特别适合处理时间序列的遥感影像。 该 模型 已经在2023年的8 开源 和部署到了Hugging Face Hub上,用户可以免费下载和在线体验该 模型 。
IBM and NASA release a new version of Prithvi - IBM Research
2024年12月6日 · The open-source foundation model, Prithvi-EO-2.0, was co-developed with Germany’s Jülich Supercomputing Centre and shows improved performance on a range of environmental mapping tasks. IBM and NASA’s latest foundation model for …
全球最大开源地理大模型来啦!IBM、美国航天局权威出品-轻识
2023年8月8日 · IBM、NASA(美国国家航空航天局)同时在官网宣布,在Hugging Face上开源全球最大的地理空间大模型——Prithvi。 据悉, Prithvi由NASA提供大量地理、气候、灾害等卫星遥感数据,在IBM的watsonx.ai模型上预训练、微调而成 。
ibm-nasa-geospatial/Prithvi-EO-1.0-100M · Hugging Face
Prithvi-EO-1.0 is a first-of-its-kind temporal Vision transformer pre-trained by the IBM and NASA team on contiguous US Harmonised Landsat Sentinel 2 (HLS) data. The model adopts a self-supervised encoder developed with a ViT architecture and Masked AutoEncoder (MAE) learning strategy, with an MSE loss function.
23亿参数,Transformer架构,NASA、IBM发布「天气+气候」通用AI模型Prithvi …
2024年9月24日 · 9 月 23 日,IBM 与 NASA 合作发布了一个用于天气和气候的新型通用 AI 模型 Prithvi WxC,该模型可以在台式计算机上运行,且开源。 Prithvi WxC 具有 23 亿参数,使用 MERRA-2 数据集的 160 个变量开发而成。Prithvi WxC 采用创新的 Transformer 架构。
Prithvi-EO-2.0: A Versatile Multi-Temporal Foundation Model for …
2024年12月3日 · This technical report presents Prithvi-EO-2.0, a new geospatial foundation model that offers significant improvements over its predecessor, Prithvi-EO-1.0. Trained on 4.2M global time series...
[2310.18660] Foundation Models for Generalist Geospatial …
2023年10月28日 · Our experiments show that the pre-trained model accelerates the fine-tuning process compared to leveraging randomly initialized weights. In addition, pre-trained Prithvi compares well against the state-of-the-art, e.g., outperforming a conditional GAN model in multi-temporal cloud imputation by up to 5pp (or 5.7%) in the structural similarity ...
prithvi WxC气象模型 - CSDN博客
2024年9月24日 · Prithvi是NASA开源的模型,被誉为全球最大的开源 地理空间 大模型。 昨天晚上逛X平台,我看到Prithvi模型又来了新成员:prithvi WxC。 NASA和 IBM 创建了一个基于MERRA-2数据的天气和气候AI基础模型—Prithvi WxC。 先来看看效果: Zero-shot,指零样本。 这里使用prithvi气象模型,而无需额外的特定训练,就可以输出补全后的气象数据。 展示了 Prithvi WxC 模型在没有特定训练的情况下预测复杂天气系统的能力。 重力波Gravity Wave虽然是一个小尺 …