Ошибка значения: Использование целевого размера (torch.Size([2, 1])), который отличается от размера ввода (torch.Size([16, 1])), не рекомендуется

0

Вопрос

Я пытаюсь построить модель для набора данных пары вопросов Quora, где выходные данные являются двоичными либо 1, либо 0, но я получаю эту ошибку. Я знаю, что форма вывода моей модели отличается от формы ввода, но я не знаю, как это исправить. Размер пакета установлен на 16

    class Bert_model (nn.Module):
      def __init__(self) :
        super(Bert_model,self).__init__()
        self.bert =  BertModel.from_pretrained('bert-base-uncased', return_dict=False)
        self.drop_layer = nn.Dropout(.25)
        self.output = nn.Linear(self.bert.config.hidden_size,1)
    
      def forward(self,input_ids,attention_mask):
        _,o2 = self.bert (input_ids =input_ids , attention_mask = attention_mask )
        o2 = self.drop_layer(o2)
        return self.output(o2)

    model = Bert_model()
    
    loss_fn = nn.BCELoss().to(device)

    def train_epoch(
      model, 
      data_loader, 
      loss_fn, 
      optimizer, 
      device, 
      n_examples
    ):
      model = model.train()
    
      losses = []
      correct_predictions = 0
      
      for d in data_loader:
        input_ids = d["input_ids"].to(device)
        attention_mask = d["attention_mask"].to(device)
        targets = d["target"].to(device)
    
        input_ids = input_ids.view(BATCH_SIZE,-1)
        attention_mask = attention_mask.view(BATCH_SIZE,-1)
    
        outputs = model(
          input_ids=input_ids,
          attention_mask=attention_mask
        )
    
        _, preds = torch.max(outputs, dim=1)
    
        targets = targets.unsqueeze(-1)
        loss = loss_fn(F.softmax(outputs,dim=1), targets)
    
        correct_predictions += torch.sum(preds == targets)
        losses.append(loss.item())
    
        loss.backward()
        nn.utils.clip_grad_norm_(model.parameters(), max_norm=1.0)
        optimizer.step()
        optimizer.zero_grad()
    
      return correct_predictions.double() / n_examples, np.mean(losses)

Из-за ошибки:

/usr/local/lib/python3.7/dist-packages/torch/nn/functional.py in
binary_cross_entropy(input, target, weight, size_average, reduce,
reduction)    2913         weight = weight.expand(new_size)    2914 
-> 2915     return torch._C._nn.binary_cross_entropy(input, target, weight, reduction_enum)    2916     2917  ValueError: Using a target
size (torch.Size([2, 1])) that is different to the input size
(torch.Size([16, 1])) is deprecated
deep-learning pytorch
2021-11-21 11:25:25
1

Лучший ответ

0

Из трассировки стека следует, что ошибка возникает при вычислениях BCELoss, это связано с тем, что outputs.shape является (16, 1), в то время как targets.shape является (2, 1).

Я вижу серьезную проблему в вашем коде: BCELoss используется для сравнения вероятностных распределений (проверьте документы), но выходные данные вашей модели имеют форму (n, 1) где n это размер пакета (в вашем случае 16). На самом деле в заявлении о возврате forward вы проходите o2 к линейному слою, выходная форма которого 1.

Набор данных Пар вопросов предназначен для задач двоичной классификации, поэтому вам необходимо преобразовать выходные данные в распределение вероятностей, например, с помощью Sigmoid или установите размер выходного линейного слоя равным 2, а затем используйте softmax.

2021-11-21 15:50:29

Кроме того, вы можете переключаться BCELoss с CrossEntropyLoss, который предназначен для задач двоичной классификации.
aretor

я изменяю функцию потерь на (BCEWithLogitsLoss), которая применяет сигмоид к выходу, затем я удалил softmax . проблема все еще существует, но теперь, потому что целевой размер (10,1) и отличается от входного (16,1)
BuzzedHub

Трудно отличить ошибку от вашего кода. Учитывая, что 16-это правильный размер пакета, тщательно проверьте, когда ваш целевой размер изменится с 16 на 10. Пожалуйста, избегайте изменения текста вашего вопроса, иначе ответы больше не будут иметь смысла.
aretor

На других языках

Эта страница на других языках

Italiano
..................................................................................................................
Polski
..................................................................................................................
Română
..................................................................................................................
한국어
..................................................................................................................
हिन्दी
..................................................................................................................
Français
..................................................................................................................
Türk
..................................................................................................................
Česk
..................................................................................................................
Português
..................................................................................................................
ไทย
..................................................................................................................
中文
..................................................................................................................
Español
..................................................................................................................
Slovenský
..................................................................................................................