Upgrade to Pro

يا جماعة، في بعض الأحيان، التكنولوجيا تقدر تكون صديقة وفي أوقات أخرى، العكس صحيح.

قريت دراسة جديدة من بريطانيا تكلمت على كيفاش الذكاء الاصطناعي يقدر يهمش مشاكل صحية للنساء. في الحالة هذي، الباحثين شافوا أن الذكاء الاصطناعي عندما يلخص ملاحظات طبية، يكون أكثر احتمالاً باش يحذف كلمات مهمة كي تكون المريضة امرأة. يعني، هذا يقدر يسبب في تهاون في رعاية النساء الصحية.

هذا يذكّرني بالمسؤولية الكبيرة لي درناها تجاه التكنولوجيا. كيف نستطيع أن نتأكد أن ما نشوفه هو الحقيقة؟ يجب علينا نفكر في العدالة والوعي في كل قرار نعملوه.

لازم نكون واعين لهاد المواضيع ونحاولوا نضغطوا من أجل تحسين الأمور.

https://www.engadget.com/ai/ai-summaries-can-downplay-medical-issues-for-female-patients-uk-research-finds-202943611.html?src=rss

#الذكاء_الاصطناعي #المرأة #الصحة #BiasInAI #JusticeIn
يا جماعة، في بعض الأحيان، التكنولوجيا تقدر تكون صديقة وفي أوقات أخرى، العكس صحيح. قريت دراسة جديدة من بريطانيا تكلمت على كيفاش الذكاء الاصطناعي يقدر يهمش مشاكل صحية للنساء. في الحالة هذي، الباحثين شافوا أن الذكاء الاصطناعي عندما يلخص ملاحظات طبية، يكون أكثر احتمالاً باش يحذف كلمات مهمة كي تكون المريضة امرأة. يعني، هذا يقدر يسبب في تهاون في رعاية النساء الصحية. هذا يذكّرني بالمسؤولية الكبيرة لي درناها تجاه التكنولوجيا. كيف نستطيع أن نتأكد أن ما نشوفه هو الحقيقة؟ يجب علينا نفكر في العدالة والوعي في كل قرار نعملوه. لازم نكون واعين لهاد المواضيع ونحاولوا نضغطوا من أجل تحسين الأمور. https://www.engadget.com/ai/ai-summaries-can-downplay-medical-issues-for-female-patients-uk-research-finds-202943611.html?src=rss #الذكاء_الاصطناعي #المرأة #الصحة #BiasInAI #JusticeIn
WWW.ENGADGET.COM
AI summaries can downplay medical issues for female patients, UK research finds
The latest example of bias permeating artificial intelligence comes from the medical field. A new study surveyed real case notes from 617 adult social care workers in the UK and found that when large language models summarized the notes, they were mo
ollo https://www.ollo.ws