ICO hususla ilgili, sıhhat izleme için giyilebilir tarama araçları yahut beden konumu, konuşma, göz ve baş hareketleri üzere davranışsal izleme, toplanması gereken bilgilerin riskli olarak görülebileceği kimi örnekler veriyor. ICO, bilinçaltı davranışları içeren bu tıp dataların saklanmasının ve işlenmesinin şahsi olarak tanımlayıcı olabileceğini ve şirketlerin bu dataları nasıl kullanabilecekleri konusunda muhakkak zorluklar ortaya çıkardığını söylüyor.
ICO Komiser Yardımcısı Stephen Bonner, “Fırsatlar mevcut olsa da, riskler şu anda daha büyük” dedi. “ICO’da, bilgilerin yanlış tahlilinin bir kişi hakkında yanlış olan var iseyımlara, yargılara ve ayrımcılığa yol açabileceğinden kaygı duyuyoruz. ”
Bonner’a bakılırsa bir de bu sistemlerin “hemen çabucak ya da hiç çalışmayabilirler” gerçeği var. şahsi hisleri anlamayı öğrenmek beşerler için son derece güç olabilir fakat bu bilgiyi, bir bilgisayarın mevzuları kategorize etmek için kullanabileceği datalara ağırlaştırmak daha da güç.
Dünya çabucak hemen yapay zeka için gereğince hazır değil!
Şu anda ICO, işletmelerin “tamamen fonksiyonel, hesap verebilir ve bilim tarafınca desteklenen” teknolojiyi kullanımını istiyor. Kuruluş ayrıyeten, bilgi müdafaa ihtiyaçlarını karşılayan ve orantılılık, adalet ve şeffaflık ile ilgili tasaları lisana getiren AI teknolojisini “hemen çabucak görmediğini” söylüyor.
ICO, bu çeşit süratle gelişen teknolojinin finans, fitness, eğitim ve hatta sürükleyici cümbüş sanayilerinde daha yaygın hale geldiğini gördüğünden, 2023 baharına kadar kuruluşların güvenliğin ehemmiyetini anlamalarına yardımcı olacak biyometrik kılavuz yayınlamayı umuyor.
Bu ortada Bonner, ICO’nun “piyasayı incelemeye, bu teknolojileri yaratmaya yahut dağıtmaya çalışan paydaşları belirlemeye ve gelişmiş bilgi saklılığı ve uyumluluğunun değerini açıklamaya devam ederken, bu sistemlerin nasıl çalıştığına dair itimat ve inancı teşvik etmeye devam edeceğini” de söylemiş oldu.
ICO Komiser Yardımcısı Stephen Bonner, “Fırsatlar mevcut olsa da, riskler şu anda daha büyük” dedi. “ICO’da, bilgilerin yanlış tahlilinin bir kişi hakkında yanlış olan var iseyımlara, yargılara ve ayrımcılığa yol açabileceğinden kaygı duyuyoruz. ”
Bonner’a bakılırsa bir de bu sistemlerin “hemen çabucak ya da hiç çalışmayabilirler” gerçeği var. şahsi hisleri anlamayı öğrenmek beşerler için son derece güç olabilir fakat bu bilgiyi, bir bilgisayarın mevzuları kategorize etmek için kullanabileceği datalara ağırlaştırmak daha da güç.
Dünya çabucak hemen yapay zeka için gereğince hazır değil!
Şu anda ICO, işletmelerin “tamamen fonksiyonel, hesap verebilir ve bilim tarafınca desteklenen” teknolojiyi kullanımını istiyor. Kuruluş ayrıyeten, bilgi müdafaa ihtiyaçlarını karşılayan ve orantılılık, adalet ve şeffaflık ile ilgili tasaları lisana getiren AI teknolojisini “hemen çabucak görmediğini” söylüyor.
ICO, bu çeşit süratle gelişen teknolojinin finans, fitness, eğitim ve hatta sürükleyici cümbüş sanayilerinde daha yaygın hale geldiğini gördüğünden, 2023 baharına kadar kuruluşların güvenliğin ehemmiyetini anlamalarına yardımcı olacak biyometrik kılavuz yayınlamayı umuyor.
Bu ortada Bonner, ICO’nun “piyasayı incelemeye, bu teknolojileri yaratmaya yahut dağıtmaya çalışan paydaşları belirlemeye ve gelişmiş bilgi saklılığı ve uyumluluğunun değerini açıklamaya devam ederken, bu sistemlerin nasıl çalıştığına dair itimat ve inancı teşvik etmeye devam edeceğini” de söylemiş oldu.