Waar exception handling in code plaatsen?

De plaats in je code waar je je exceptions zal opvangen, heeft invloed op de totale werking van je code. Stel dat je volgende stukje code hebt waarin je een methode hebt die een lijst van strings zal beschouwen als urls die moeten gedownload worden. Indien er echter fouten in de string staan dan zal er een uitzondering optreden bij lijn 16:

static void Main(string[] args)
{
    string[] urllist= new string[3];
    urllist[0] = "http://www.ap.be";
    urllist[1] = "http:\\www.humo.be";
    urllist[2] = "timdams.com";
    DownloadAllUris(urllist);
}

static public void DownloadAllUris(string[] urlstodownload)
{
    WebClient webClient = new WebClient();

    foreach (string url in urlstodownload)
    {
        Uri uril= new Uri(url);
        string result = webClient.DownloadString(uril);
        Console.WriteLine(url+ " gedownload!");
    }
}

We bekijken nu een aantal mogelijk try/catch locaties in deze code en zien welke impact deze hebben op de totale uitvoer van het programma.

Rondom methode-aanroep in z'n geheel

try
{
    DownloadAllUris(urllist);
}
catch (Exception ex)
{
    Console.WriteLine(ex.Message);
}

Zal resulteren in:

http://www.ap.be gedownload!
Ongeldige URI: kan de Authority/Host niet parsen.

Met andere woorden, zolang de urls geldig zijn zal de download lukken. Bij de eerste fout die optreedt zal de volledige methode echter stoppen.

Rond afzonderlijke elementen in de loop

foreach (string url in urlstodownload)
{
    try
    {
        Uri uril = new Uri(url);
        string result = webClient.DownloadString(uril);
        Console.WriteLine(url + " gedownload!");
    }
    catch (Exception ex)
    {
        Console.WriteLine(ex.Message);
    }

}

Dit zal resulteren in:

http://www.ap.be gedownload!
Ongeldige URI: kan de Authority/Host niet parsen.
Ongeldige URI: de indeling van de URI kan niet worden bepaald.

Met andere woorden, indien een bepaalde url niet geldig is dan zal deze overgeslagen worden en gaat de methode verder naar de volgende. Op deze manier kunnen we alsnog alle urls trachten te downloaden.

results matching ""

    No results matching ""