• Španielsky jazyk

Temores y preocupaciones ante los sesgos de la inteligencia artificial

Autor: Mohammad Kaleem Galamali

Con el desarrollo de la IA, mucha gente se siente abrumada y se deja llevar por la confianza de que todo va bien con la tendencia a la "sofisticación". Los expertos saben que no es así, a menos que las implementaciones específicas se orienten en consecuencia.... Viac o knihe

Na objednávku, dodanie 2-4 týždne

40.68 €

bežná cena: 45.20 €

O knihe

Con el desarrollo de la IA, mucha gente se siente abrumada y se deja llevar por la confianza de que todo va bien con la tendencia a la "sofisticación". Los expertos saben que no es así, a menos que las implementaciones específicas se orienten en consecuencia. El campo que estudia la cuestión es el de la "Ética", en el que se consideran diversos factores para el beneficio de la sociedad. Cada tecnología puede ser una pieza que contribuya al poder. En consecuencia, debe concebirse y aplicarse la necesidad de evitar que dichos poderes se corrompan, junto con los avances técnicos. A pesar de todas estas características, prevalecen los temores y preocupaciones debidos a los sesgos de la IA. Es necesario realizar estudios específicos sobre la ética en la IA para comprender bien las raíces de estos temores y preocupaciones. El objetivo subsiguiente es formular directrices éticas adecuadas y vías de aplicación que se incorporen a los procedimientos de desarrollo. Uno de los medios consiste en profundizar en las críticas a la IA hasta niveles serios o no identificados previamente, aunque algunos puedan considerarlo inquietante o pesimista, y formular estudios adecuados en torno a ellas. El objetivo ético de producir mejoras limpias/viables/aceptables en la IA, especialmente en lo que se refiere a los factores humanos, puede resolverse.

  • Vydavateľstvo: Ediciones Nuestro Conocimiento
  • Rok vydania: 2023
  • Formát: Paperback
  • Rozmer: 220 x 150 mm
  • Jazyk: Španielsky jazyk
  • ISBN: 9786206048121

Generuje redakčný systém BUXUS CMS spoločnosti ui42.