千鋒教育-做有情懷、有良心、有品質(zhì)的職業(yè)教育機(jī)構(gòu)

手機(jī)站
千鋒教育

千鋒學(xué)習(xí)站 | 隨時(shí)隨地免費(fèi)學(xué)

千鋒教育

掃一掃進(jìn)入千鋒手機(jī)站

領(lǐng)取全套視頻
千鋒教育

關(guān)注千鋒學(xué)習(xí)站小程序
隨時(shí)隨地免費(fèi)學(xué)習(xí)課程

當(dāng)前位置:首頁(yè)  >  技術(shù)干貨  > 深入理解 Lovasz Loss

深入理解 Lovasz Loss

來(lái)源:千鋒教育
發(fā)布人:xqq
時(shí)間: 2023-11-24 19:26:09 1700825169

Lovasz Loss 是一種用于訓(xùn)練分割模型的損失函數(shù),它通過(guò)最小化真實(shí)標(biāo)簽和預(yù)測(cè)標(biāo)簽之間的差異來(lái)提高模型的準(zhǔn)確性和穩(wěn)定性,被廣泛應(yīng)用于醫(yī)學(xué)圖像分割、自然語(yǔ)言處理、圖像識(shí)別、社交網(wǎng)絡(luò)分析等領(lǐng)域。

一、Lovasz Loss 簡(jiǎn)介

Lovasz Loss 的核心在于求解兩個(gè)集合之間的距離,其中一個(gè)集合是真實(shí)標(biāo)簽集合,另一個(gè)集合是預(yù)測(cè)標(biāo)簽集合。距離的計(jì)算方法是基于 Lovasz 擴(kuò)展理論的,該理論主要用于研究無(wú)序的、不可比的有限偏序集的性質(zhì)。

在分割模型中,我們通常使用 Dice Loss 或交叉熵?fù)p失作為評(píng)價(jià)指標(biāo),但是這些損失函數(shù)不太適用于非平衡數(shù)據(jù)集,因?yàn)樗鼈儠?huì)導(dǎo)致分類(lèi)結(jié)果傾向于具有較多樣本的類(lèi)別。

Lovasz Loss 的主要優(yōu)點(diǎn)是,它可以有效地處理非平衡數(shù)據(jù)集,并且在處理稀疏邊界問(wèn)題時(shí)非常有效。此外,Lovasz Loss 與直接優(yōu)化非概率評(píng)分函數(shù)(如 IoU 或 Dice 等)相比具有更好的數(shù)學(xué)性質(zhì)。

二、計(jì)算 Lovasz Loss

Lovasz Loss 的核心在于計(jì)算預(yù)測(cè)序列的排列代價(jià),它可以表示為以下公式:


def lovasz_grad(gt_sorted):
    """
    計(jì)算 Lovasz Loss 的梯度
    """
    p = len(gt_sorted)
    gts = gt_sorted.sum()
    intersection = gts - gt_sorted.float().cumsum(0)
    union = gts + (1 - gt_sorted).float().cumsum(0)
    jaccard = 1.0 - intersection / union
    if p > 1:
        jaccard[1:p] = jaccard[1:p] - jaccard[0:-1]
    return jaccard

def flatten_binary_scores(scores, labels):
    """
    將概率評(píng)分函數(shù)與對(duì)應(yīng)的標(biāo)簽轉(zhuǎn)換為二進(jìn)制函數(shù)
    """
    num_classes = scores.shape[1]
    all_thresh = torch.unsqueeze(torch.arange(num_classes), dim=0).cuda()
    all_scores = torch.unsqueeze(scores, dim=0)
    all_labels = torch.unsqueeze(labels, dim=0)

    gt = all_labels.long().cuda()
    scores = all_scores.float().cuda()
    scores = (scores > torch.unsqueeze(all_thresh, dim=2)).float()
    scores_sorted, _ = torch.sort(scores, dim=1, descending=True)

    grad = []
    loss = []
    for i in range(num_classes):
        gt_i = gt[:, i].float()
        grad_i = lovasz_grad(gt_i * 2 - 1)
        grad.append(grad_i)
        loss_i = torch.dot(torch.relu(scores_sorted[:, i] - gt_i * 2 + 1), grad_i)
        loss.append(loss_i)
    return torch.stack(loss), torch.stack(grad)

其中 gt_sorted 是通過(guò)對(duì)真實(shí)標(biāo)簽集合進(jìn)行排序得到的標(biāo)簽序列,scores 是模型產(chǎn)生的預(yù)測(cè)標(biāo)簽序列。這個(gè)函數(shù)將概率評(píng)分函數(shù)與對(duì)應(yīng)的標(biāo)簽轉(zhuǎn)換為二進(jìn)制函數(shù),然后計(jì)算二進(jìn)制函數(shù)的 Lovasz Loss。

下面是 Lovasz Loss 的標(biāo)準(zhǔn)表達(dá)式:


def multi_lovasz_loss(scores, labels):
    """
    計(jì)算多類(lèi)別 Lovasz Loss
    """
    num_classes = scores.shape[1]
    if num_classes == 1:
        loss, _ = lovasz_hinge(scores.squeeze().float(), labels.float())
        return loss.unsqueeze(0)
    losses = []
    grad = None
    for i in range(num_classes):
        loss_i, grad_i = lovasz_hinge(scores[:, i], labels[:, i], per_image=False)
        losses.append(loss_i)
        if grad is None:
            grad = torch.empty(num_classes, grad_i.size(0)).cuda()
        grad[i] = grad_i
    loss = torch.cat(losses).mean()
    return loss, grad

該函數(shù)可以計(jì)算多類(lèi)別 Lovasz Loss,如果只有一個(gè)類(lèi)別,它會(huì)使用 Lovasz Hinge Loss。

三、應(yīng)用 Lovasz Loss

Lovasz Loss 在分割模型、圖像識(shí)別、社交網(wǎng)絡(luò)分析等領(lǐng)域都得到了廣泛的應(yīng)用。下面是一個(gè)利用 Lovasz Loss 進(jìn)行圖像分割的實(shí)例:


class SegmentationLoss(nn.Module):
    """
    基于 Lovasz Loss 的圖像分割損失函數(shù)
    """
    def __init__(self, mode='binary', per_image=False):
        super(SegmentationLoss, self).__init__()
        self.mode = mode
        self.per_image = per_image

    def forward(self, outputs, labels):
        if self.mode == 'binary':
            loss, grad = lovasz_hinge(outputs.squeeze(), labels.squeeze(), per_image=self.per_image)
        elif self.mode == 'multiclass':
            loss, grad = multi_lovasz_loss(outputs, labels)

        return loss

我們可以通過(guò)定義一個(gè)繼承自 nn.Module 的 SegmentationLoss 類(lèi)來(lái)使用 Lovasz Loss 訓(xùn)練分割模型。根據(jù)需要,可以選擇單類(lèi)別分割或多類(lèi)別分割。

四、總結(jié)

Lovasz Loss 在非平衡數(shù)據(jù)集的圖像分割中具有很好的性能,特別是在處理稀疏圖像邊界問(wèn)題時(shí)非常有效。然而,它也有一些缺點(diǎn),例如在計(jì)算上相對(duì)復(fù)雜,訓(xùn)練時(shí)間相對(duì)較長(zhǎng)。

通過(guò)深入理解 Lovasz Loss 的核心思想和計(jì)算方法,我們可以更好地應(yīng)用它來(lái)提高分割模型的準(zhǔn)確性和穩(wěn)定性。

tags: mapiterator
聲明:本站稿件版權(quán)均屬千鋒教育所有,未經(jīng)許可不得擅自轉(zhuǎn)載。
10年以上業(yè)內(nèi)強(qiáng)師集結(jié),手把手帶你蛻變精英
請(qǐng)您保持通訊暢通,專(zhuān)屬學(xué)習(xí)老師24小時(shí)內(nèi)將與您1V1溝通
免費(fèi)領(lǐng)取
今日已有369人領(lǐng)取成功
劉同學(xué) 138****2860 剛剛成功領(lǐng)取
王同學(xué) 131****2015 剛剛成功領(lǐng)取
張同學(xué) 133****4652 剛剛成功領(lǐng)取
李同學(xué) 135****8607 剛剛成功領(lǐng)取
楊同學(xué) 132****5667 剛剛成功領(lǐng)取
岳同學(xué) 134****6652 剛剛成功領(lǐng)取
梁同學(xué) 157****2950 剛剛成功領(lǐng)取
劉同學(xué) 189****1015 剛剛成功領(lǐng)取
張同學(xué) 155****4678 剛剛成功領(lǐng)取
鄒同學(xué) 139****2907 剛剛成功領(lǐng)取
董同學(xué) 138****2867 剛剛成功領(lǐng)取
周同學(xué) 136****3602 剛剛成功領(lǐng)取
相關(guān)推薦HOT
深入探究ES6 for...in

一、基礎(chǔ)用法ES6中的for...in循環(huán)與ES5中的for...in有所區(qū)別。在ES5中,使用for...in循環(huán)來(lái)迭代對(duì)象的屬性,在迭代時(shí),可以遍歷對(duì)象的自有屬性...詳情>>

2023-11-24 21:21:21
linuxwrite,linuxwrite參數(shù)

linux系統(tǒng)調(diào)用文件函數(shù)write()怎么往文件里寫(xiě)入換行1、通過(guò)write()函數(shù)向文件中寫(xiě)入一行 f=open(rC:\Users\Administrator\Desktop\test.txt詳情>>

2023-11-24 21:02:13
linux寫(xiě)時(shí)拷貝,linux 寫(xiě)時(shí)拷貝技術(shù)

Linux編程文件內(nèi)容復(fù)制linux編程文件可以使用cp命令來(lái)實(shí)現(xiàn)文件復(fù)制。例如,如果要將文件filetxt復(fù)制到文件夾folder2中,可以在終端中輸入以下...詳情>>

2023-11-24 20:45:33
深入了解npm run lint

一、什么是npm run lint?npm run lint是一個(gè)非常強(qiáng)大的命令,它可以自動(dòng)檢查代碼中的潛在錯(cuò)誤和不規(guī)范的格式,從而提供了對(duì)代碼質(zhì)量的保證。npm...詳情>>

2023-11-24 20:12:57
用法介紹plt.errorbar

一、參數(shù)介紹plt.errorbar是matplotlib庫(kù)中的一個(gè)函數(shù),用于繪制帶誤差線(xiàn)的線(xiàn)圖。它的主要參數(shù)有:1. x、y指定數(shù)據(jù)的橫縱坐標(biāo),必須是數(shù)組或者...詳情>>

2023-11-24 20:09:21