Tarih: 09.11.2023 10:05

Yapay zeka kontrolden çıkabilir mi?

Facebook Twitter Linked-in

 Oto­nom, kim­ya­sal ya da bi­yo­lo­jik si­lah­lar bugün yapay zeka ve ro­bo­tik alan­lar­da­ki hızlı ge­liş­me­le­re pa­ra­lel ola­rak in­san­lık için kor­ku­tu­cu nok­ta­la­ra ula­şa­bi­li­yor. Peki yapay zeka kont­rol­den çı­ka­bi­lir mi? Yapay zekâ sek­tö­rü, her geçen gün daha fazla bü­yü­ye­rek, in­san­la­rın ya­şam­la­rı­nı daha da ko­lay­laş­tı­rı­yor. Sağ­lık, sa­vun­ma ve bir­çok başka sek­tör­de ve­rim­li­li­ği ar­tı­rı­yor. Sık­lık­la yapay zekâ sis­tem­le­ri yal­nız­ca in­san­la­rın ye­te­nek­le­ri­ni eşit­le­mek­le kal­mı­yor, aynı za­man­da bun­la­rı büyük öl­çü­de aşı­yor. İnsan­la­rın hızla karar ve­re­me­di­ği du­rum­lar, yapay zekâ ta­ra­fın­dan hızla çö­zü­le­bi­li­yor. Kar­ma­şık man­tık sü­reç­le­ri içe­ren so­run­lar, yapay zekâ al­go­rit­ma­la­rı sa­ye­sin­de son de­re­ce kısa sü­re­de çö­zü­le­bi­li­yor. Ancak yapay zekâ kul­la­nı­mı bir­çok riski de be­ra­be­rin­de ge­ti­re­bi­li­yor.
Ül­ke­ler ara­sın­da­ki re­ka­be­tin de et­ki­siy­le, yapay ze­kâ­nın as­ke­ri kul­la­nı­mı gi­de­rek güç­le­ni­yor. ABD, Güney Kore, Rusya, İsrail ve Avus­tur­ya gibi önde gelen ül­ke­ler, or­du­la­rı­nın sal­dı­rı ve sa­vun­ma sis­tem­le­ri­ne yapay ze­kâ­yı en­teg­re etmek ve savaş sü­re­ci­ni oto­ma­tik­leş­tir­mek için ciddi ça­lış­ma­lar ya­pı­yor. Tam oto­ma­tik dron­lar, he­def­le­ri vurup üs­le­ri­ne geri dö­ne­bi­li­yor.İnsan yüz­le­ri­ni ta­nı­ma ye­te­ne­ği olan tü­fek­ler üze­rin­de ça­lış­ma­lar devam eder­ken, "in­san­sız" sa­vaş­la­rın ne kadar yakın ol­du­ğu so­ru­su in­san­la­rın ka­fa­sı­nı kur­ca­lı­yor. Do­la­yı­sıy­la, ge­le­ce­ğin savaş tek­no­lo­ji­si­nin yapay zeka ta­ra­fın­dan be­lir­len­di­ği bir dö­ne­me doğru gi­di­yor ola­bi­li­riz. Tüm bu ge­liş­me­le­re rağ­men, önde gelen ül­ke­le­rin vaz­ge­çe­me­di­ği yapay zeka tek­no­lo­ji­le­ri, ge­le­cek­te ne­le­ri de­ğiş­ti­recek? Bu de­ği­şik­lik­ler po­tan­si­yel ola­rak teh­li­ke­li ola­bi­lir mi? Yapay Zeka Po­li­ti­ka­la­rı Der­ne­ği Genel Sek­re­te­ri İrem Sezer’e sordu. Yapay ze­ka­nın, kötü ni­yet­li ak­tör­ler ta­ra­fın­dan kötü amaç­lar için kul­la­nı­la­bi­le­ce­ği­ne dik­kat çeken Sezer, “Ör­ne­ğin, siber sal­dı­rı­lar, sah­te­ci­lik, do­lan­dı­rı­cı­lık ve diğer suç­lar için yapay zekâ kul­la­nı­mı ar­ta­bi­lir. Bu, ki­şi­sel veri hır­sız­lı­ğı, siber ca­sus­luk, bil­gi­sa­yar vi­rüs­le­ri­nin ge­liş­ti­ril­me­si gibi teh­li­ke­le­ri ar­tı­ra­bi­lir. Yine buna bağlı ola­rak yapay zekâ, büyük mik­tar­lar­da ki­şi­sel ve­ri­yi iş­le­ye­bi­lir. Veri giz­li­li­ği ih­lal­le­ri, ki­şi­sel ve has­sas bil­gi­le­rin kö­tü­ye kul­la­nıl­ma­sı­na yol aça­bi­lir. Bu gibi du­rum­lar yapay ze­kâ­nın teh­li­ke­li ola­bi­le­ce­ği dü­şün­ce­si­ne yol aça­bi­lir” ifa­de­le­ri­ni kul­lan­dı.
Yapay ze­kâ­nın kötü amaç­lı kul­la­nı­mı­nın gü­ven­lik risk­le­ri­ni be­ra­be­rin­de ge­ti­re­bi­le­ce­ği­ni ancak nük­le­er kod­la­rı ça­la­bi­lecek, sal­gın has­ta­lık­lar ya­ra­ta­bi­lecek ve dünya sa­vaş­la­rı­nı te­tik­le­ye­bi­lecek se­nar­yo­la­rın ger­çek­leş­me­si için bir dizi koşul ve kont­rol­le­rin at­la­tıl­ma­sı ge­rek­ti­ği­ni ifade eden Sezer, şun­la­rı söy­le­di: “Yapay zekâ, kötü ni­yet­li kul­la­nım, veri giz­li­li­ği ih­lal­le­ri, oto­mas­yon­la iş kaybı, etik so­run­lar ve ön­yar­gı­lı al­go­rit­ma­lar gibi risk­ler taşır. Bu risk­ler, insan top­lum­la­rı­na uzun va­de­li za­rar­lar ve­re­bi­lir. Yapay zekâ tek­no­lo­ji­si­nin gü­ven­li ve etik bir şe­kil­de kul­la­nıl­ma­sı için dü­zen­le­me­ler ve de­ne­tim­ler ge­rek­li­dir. Yapay zekâ ile il­gi­li risk­ler üze­ri­ne araş­tır­ma­lar ve etik il­ke­ler ge­liş­tir­mek, po­tan­si­yel teh­li­ke­le­ri azalt­ma­ya yar­dım­cı ola­bi­lir. Yapay zekâ, siber sal­dı­rı­lar yo­luy­la has­sas ve­ri­le­re eri­şe­bi­lir ve nük­le­er kod­la­rı ele ge­çi­re­bi­lir. Ancak nük­le­er kod­lar ge­nel­lik­le son de­re­ce gü­ven­li ve ko­ru­ma­lı bir şe­kil­de sak­la­nır ve eri­şim­le­ri sıkı bir şe­kil­de kont­rol edi­lir. Bu tür bir sal­dı­rı ger­çek­leş­me­si son de­re­ce zor ve kar­ma­şık ola­cak­tır. Yapay zekâ, bi­yo­lo­jik araş­tır­ma­lar­da ve ge­ne­tik mü­hen­dis­lik­te kul­la­nı­la­bi­lir. Ancak bir sal­gın has­ta­lık ya­rat­mak için sa­de­ce yapay zekâ ye­ter­li de­ğil­dir. Bu tür bir ey­le­min ger­çek­leş­me­si, la­bo­ra­tu­var­lar­da ve tıp ala­nın­da çok sa­yı­da gü­ven­lik ön­le­mi ve de­ne­tim ge­rek­ti­rir. Yapay zekâ, as­ke­ri sis­tem­ler­de ve siber gü­ven­lik ala­nın­da kul­la­nıl­dı­ğın­da dünya sa­vaş­la­rı­nı te­tik­le­me po­tan­si­ye­li ta­şı­ya­bi­lir. Ancak bu, si­ya­si, etik ve hu­ku­ki fak­tör­le­rin bir so­nu­cu ola­cak­tır. Dünya sa­vaş­la­rı­nın te­tik­len­me­si çok ciddi so­nuç­la­ra yol açar, bu ne­den­le ulus­la­ra­ra­sı iliş­ki­ler­de denge ve dip­lo­ma­si­nin önemi bü­yük­tür.”
              Ha­ber-Fo­to: Sü­mey­ye Aksu




Orjinal Habere Git
— HABER SONU —