<?xml version="1.0" encoding="utf-8"?>
<oembed>
  <version>1</version>
  <type>rich</type>
  <provider_name>Libsyn</provider_name>
  <provider_url>https://www.libsyn.com</provider_url>
  <height>90</height>
  <width>600</width>
  <title>#90. När AI inte får göra fel. Daniel Langkilde, Kognic</title>
  <description>Vad händer när AI inte får gissa, när ett fel kan få konsekvenser för säkerhet och affär? I det här avsnittet möter vi Daniel Langkilde, grundare av Kognic, som arbetar med AI i miljöer där datakvalitet, mänsklig feedback och precision är avgörande. Samtalet rör sig från de tidiga deep learning-genombrotten till dagens arbete med säkerhetskritiska system och självkörande teknik. Vi pratar om hur man skiljer verkligt AI-värde från hype, varför data är den verkliga flaskhalsen och vad företag behöver förstå för att använda AI på ett ansvarsfullt och fungerande sätt. Ett avsnitt för dig som vill förstå AI bortom buzzwords.   Länkar Businessregiongoteborg.se Prenumerera på nyhetsbrev Tidigare avsnitt &amp;amp;nbsp;  Glöm inte att följa podden så missar du inga avsnitt! Tipsa gärna en vän eller kollega och lyssna på äldre avsnitt. Välkommen att  höra av dig till oss  på BRG om du har frågor eller vill ha hjälp med att starta, utveckla eller etablera företag.    </description>
  <author_name>Business Göteborg</author_name>
  <author_url>http://sites.libsyn.com/276080</author_url>
  <html>&lt;iframe title="Libsyn Player" style="border: none" src="//html5-player.libsyn.com/embed/episode/id/39995245/height/90/theme/custom/thumbnail/yes/direction/forward/render-playlist/no/custom-color/88AA3C/" height="90" width="600" scrolling="no"  allowfullscreen webkitallowfullscreen mozallowfullscreen oallowfullscreen msallowfullscreen&gt;&lt;/iframe&gt;</html>
  <thumbnail_url>https://assets.libsyn.com/secure/content/198227390</thumbnail_url>
</oembed>
