bash scripts/pretrain.sh \
--task ok --version okvqa_pretrain_1 --gpu 0
Traceback (most recent call last):
File "/root/autodl-fs/prophet-main/main.py", line 35, in <module>
runner.run()
File "/root/autodl-fs/prophet-main/prophet/stage1/pretrain.py", line 162, in run
self.train(train_set, valid_set)
File "/root/autodl-fs/prophet-main/prophet/stage1/pretrain.py", line 93, in train
for step, input_tuple in enumerate(dataloader):
File "/root/miniconda3/envs/prophet/lib/python3.9/site-packages/torch/utils/data/dataloader.py", line 652, in __next__
data = self._next_data()
File "/root/miniconda3/envs/prophet/lib/python3.9/site-packages/torch/utils/data/dataloader.py", line 1347, in _next_data
return self._process_data(data)
File "/root/miniconda3/envs/prophet/lib/python3.9/site-packages/torch/utils/data/dataloader.py", line 1373, in _process_data
data.reraise()
File "/root/miniconda3/envs/prophet/lib/python3.9/site-packages/torch/_utils.py", line 461, in reraise
raise exception
KeyError: Caught KeyError in DataLoader worker process 0.
Original Traceback (most recent call last):
File "/root/miniconda3/envs/prophet/lib/python3.9/site-packages/torch/utils/data/_utils/worker.py", line 302, in _worker_loop
data = fetcher.fetch(index)
File "/root/miniconda3/envs/prophet/lib/python3.9/site-packages/torch/utils/data/_utils/fetch.py", line 49, in fetch
data = [self.dataset[idx] for idx in possibly_batched_index]
File "/root/miniconda3/envs/prophet/lib/python3.9/site-packages/torch/utils/data/_utils/fetch.py", line 49, in <listcomp>
data = [self.dataset[idx] for idx in possibly_batched_index]
File "/root/autodl-fs/prophet-main/prophet/stage1/utils/load_data.py", line 136, in __getitem__
KeyError: 179520
prophet-main
├── assets
│ ├── answer_aware_examples_okvqa.json
│ ├── answer_dict_aokvqa.json
│ ├── answer_dict_okvqa.json
│ ├── answer_dict_vqav2.json
│ ├── candidates_aokvqa_test.json
│ ├── candidates_aokvqa_val.json
│ ├── candidates_okvqa.json
│ ├── captions_aokvqa.json
│ ├── captions_okvqa.json
│ ├── examples_aokvqa_test.json
│ ├── examples_aokvqa_val.json
│ └── Untitled.ipynb
├── ckpts
│ └── epoch_6.pkl
├── CLIP
│ ├── clip
│ │ ├── bpe_simple_vocab_16e6.txt.gz
│ │ ├── clip.py
│ │ ├── __init__.py
│ │ ├── model.py
│ │ └── simple_tokenizer.py
│ ├── CLIP.png
│ ├── data
│ │ ├── country211.md
│ │ ├── prompts.md
│ │ ├── rendered-sst2.md
│ │ └── yfcc100m.md
│ ├── hubconf.py
│ ├── LICENSE
│ ├── MANIFEST.in
│ ├── model-card.md
│ ├── notebooks
│ │ ├── Interacting_with_CLIP.ipynb
│ │ └── Prompt_Engineering_for_ImageNet.ipynb
│ ├── README.md
│ ├── requirements.txt
│ ├── setup.py
│ └── tests
│ └── test_consistency.py
├── configs
│ ├── finetune.yml
│ ├── path_cfgs.py
│ ├── pretrain.yml
│ ├── prompt.yml
│ ├── __pycache__
│ │ ├── path_cfgs.cpython-39.pyc
│ │ ├── task_cfgs.cpython-39.pyc
│ │ └── task_to_split.cpython-39.pyc
│ ├── task_cfgs.py
│ └── task_to_split.py
├── datasets
│ ├── aokvqa
│ │ ├── aokvqa_v1p0_test.json
│ │ ├── aokvqa_v1p0_train.json
│ │ └── aokvqa_v1p0_val.json
│ ├── coco2014
│ │ ├── train2014
│ │ ├── train2014.zip
│ │ └── val2014
│ ├── coco2014_feats
│ │ ├── train2014
│ │ ├── train2014.zip
│ │ ├── val2014
│ │ └── val2014.zip
│ ├── coco2017
│ ├── coco2017_feats
│ ├── datasets.zip
│ ├── okvqa
│ │ ├── mscoco_train2014_annotations.json
│ │ ├── mscoco_val2014_annotations.json
│ │ ├── OpenEnded_mscoco_train2014_questions.json
│ │ └── OpenEnded_mscoco_val2014_questions.json
│ ├── old_data
│ │ ├── coco2014
│ │ └── coco2014_feats
│ ├── Untitled.ipynb
│ └── vqav2
│ ├── v2_mscoco_train2014_annotations.json
│ ├── v2_mscoco_val2014_annotations.json
│ ├── v2_OpenEnded_mscoco_train2014_questions.json
│ ├── v2_OpenEnded_mscoco_val2014_questions.json
│ ├── v2valvg_no_ok_annotations.json
│ ├── v2valvg_no_ok_questions.json
│ ├── vg_annotations.json
│ └── vg_questions.json
├── environment.yml
├── evaluation
│ ├── ans_punct.py
│ ├── aok_utils
│ │ ├── eval_predictions.py
│ │ ├── load_aokvqa.py
│ │ ├── __pycache__
│ │ └── remap_predictions.py
│ ├── aokvqa_evaluate.py
│ ├── okvqa_evaluate.py
│ ├── __pycache__
│ │ ├── ans_punct.cpython-39.pyc
│ │ ├── aokvqa_evaluate.cpython-39.pyc
│ │ └── okvqa_evaluate.cpython-39.pyc
│ └── vqa_utils
│ ├── __pycache__
│ ├── vqaEval.py
│ └── vqa.py
├── LICENSE
├── main.py
├── misc
│ ├── framework.png
│ └── tree.txt
├── outputs
│ ├── ckpts
│ │ ├── okvqa_finetune_1
│ │ ├── okvqa_heuristics_1
│ │ └── okvqa_pretrain_1
│ ├── logs
│ │ ├── okvqa_finetune_1
│ │ └── okvqa_pretrain_1
│ └── results
│ ├── okvqa_finetune_1
│ └── okvqa_heuristics_1
├── preds
├── prophet
│ ├── __init__.py
│ ├── __pycache__
│ │ └── __init__.cpython-39.pyc
│ ├── stage1
│ │ ├── finetune.py
│ │ ├── heuristics.py
│ │ ├── model
│ │ ├── pretrain.py
│ │ ├── __pycache__
│ │ └── utils
│ └── stage2
│ ├── prompt.py
│ └── utils
├── README.md
├── scripts
│ ├── evaluate_file.sh
│ ├── evaluate_model.sh
│ ├── extract_img_feats.sh
│ ├── finetune.sh
│ ├── heuristics_gen.sh
│ ├── pretrain.sh
│ └── prompt.sh
├── --task
├── tools
│ ├── extract_img_feats.py
│ ├── __pycache__
│ │ └── transforms.cpython-39.pyc
│ └── transforms.py
└── Untitled.ipynb