معلومة

كيفية الحصول على نسبة الإجابات الصحيحة من بيانات QUEST

كيفية الحصول على نسبة الإجابات الصحيحة من بيانات QUEST


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

أنا جديد في تحليل بيانات QUEST لإنتاج وظائف القياس النفسي. أنا أستخدم Psignifit في Matlab لهذا الغرض.

لدي هذه البيانات:

يحتوي العمود رقم 1 على تباين محفز تم تقديمه في الفاصل الزمني الأول أو الثاني ويوضح العمود رقم 2 (الاستجابة) ما إذا كان المستخدم قد حدد الفاصل الزمني الذي تم تقديمه فيه بشكل صحيح. 1 صحيح و 0 خطأ. مع QUEST ، كل مستوى تباين يتم تقديمه مختلف ولا يوجد سوى صف لهذا التباين المحدد.

  1. كيف يمكنني استخدام هذه البيانات (1s و 0s) للحصول على النسبة المئوية الصحيحة وتناسب الوظيفة السيكومترية لتلك البيانات في psignifit في Matlab؟
  2. هل هناك طريقة لبناء الوظيفة السيكومترية دون تجميع البيانات؟

نقدر أي مساعدة!


طريقة سهلة لعكس عناصر مقياس التعليمات البرمجية

قبل تشغيل تحليل ألفا أو عامل Cronbach & # 8217s على عناصر المقياس ، من الجيد عمومًا عكس عناصر التعليمات البرمجية التي تمت صياغتها بشكل سلبي بحيث تشير القيمة العالية إلى نفس نوع الاستجابة لكل عنصر.

على سبيل المثال ، لنفترض & # 8217s أن لديك 20 عنصرًا على مقياس من 1 إلى 7. بالنسبة لمعظم العناصر ، قد يشير الرقم 7 إلى موقف إيجابي تجاه بعض القضايا ، ولكن بالنسبة لبعض العناصر ، يشير الرقم 1 إلى موقف إيجابي.

أريد أن أوضح لك طريقة سريعة وسهلة للغاية لعكس رمزها باستخدام سطر أوامر واحد. هذا يعمل في أي برنامج.

بدلاً من تحديد كل قيمة فردية مُعاد تشفيرها & # 8211a 1 إلى 7 ، و 2 إلى 6 ، وما إلى ذلك ، ما عليك سوى طرح القيم من قيمة واحدة ثابتة أعلى من أعلى قيمة على المقياس.

على سبيل المثال ، إذا تم ترميز OldVariable عكسيًا وعلى مقياس من 1 إلى 7 ، في SPSS ، فقم بذلك:

حساب NewVariable = 8 & # 8211 OldVariable. (يمكنك أيضًا القيام بذلك في القوائم في Transform & # 8211 & gtCompute).

في SAS ، قم بذلك ضمن خطوة البيانات.

مقياس البيانات
ضبط النطاق
NewVariable = 8 - OldVariable. متغير جديد = 8 - متغير قديم
يركض

ستكون القيمة التي تطرح منها المتغير القديم دائمًا قيمة أعلى من أعلى قيمة لديك. لذلك قمت بطرح المتغير القديم من 8 لأن لدي مقياس من 1 إلى 7. إذا كان لدي مقياس من 1 إلى 5 ، فسأطرح المتغير القديم من 6.

إذا كان عليك فقط عكس رمز عنصر واحد ، فهذه ليست مشكلة كبيرة. لكنني وجدت أن تنظيف البيانات وإنشاء متغيرات جديدة غالبًا ما تكون الخطوة في تحليل البيانات التي تستغرق وقتًا أطول. أستخدم كل الاختصارات الممكنة.


تجارب مطابقة Asch

في علم النفس ، فإن تجارب مطابقة Asch أو ال نموذج Asch كانت سلسلة من الدراسات التي أخرجها سولومون آش لدراسة ما إذا كان الأفراد قد استسلموا لمجموعة الأغلبية أو تحدىوا كيف وكيف ذلك ، وتأثير هذه التأثيرات على المعتقدات والآراء. [1] [2] [3] [4]

تم تطوير المنهجية في الخمسينيات من القرن الماضي ، ولا تزال هذه المنهجية قيد الاستخدام من قبل العديد من الباحثين. تشمل الاستخدامات دراسة تأثيرات التوافق لأهمية المهمة ، [5] العمر ، [6] الجنس ، [7] [8] [9] [10] والثقافة. [5] [10]


كيفية الحصول على الإجابات الصحيحة في المئة من بيانات QUEST - علم النفس


بعد إنشاء عناصر التقييم الموضوعي وإجراء الاختبار ، كيف يمكنك التأكد من أن العناصر مناسبة - ليست صعبة للغاية وليست سهلة للغاية؟ كيف ستعرف ما إذا كان الاختبار يميز بشكل فعال بين الطلاب الذين يقومون بعمل جيد في الاختبار الشامل وأولئك الذين لا يفعلون؟ يعد تحليل العنصر إجراءً قيمًا ، ولكنه سهل نسبيًا ، يمكن للمدرسين استخدامه للإجابة على هذين السؤالين.

لتحديد مستوى صعوبة عناصر الاختبار ، يُطلق على مقياس يسمى مؤشر الصعوبة يستخدم. يطلب هذا المقياس من المعلمين حساب نسبة الطلاب الذين أجابوا على عنصر الاختبار بدقة. من خلال النظر في كل بديل (للاختيار من متعدد) ، يمكننا أيضًا معرفة ما إذا كانت هناك خيارات للإجابة يجب استبدالها. على سبيل المثال ، لنفترض أنك قدمت اختبارًا متعدد الاختيارات وكان هناك أربعة اختيارات للإجابة (أ ، ب ، ج ، د). يوضح الجدول التالي عدد الطلاب الذين اختاروا كل اختيار إجابة للسؤال رقم 1 و 2.

بالنسبة للسؤال رقم 1 ، يمكننا أن نرى أن "أ" لم يكن مصدر تشتيت جيد للغاية - لم يختر أحد هذه الإجابة. يمكننا أيضًا حساب صعوبة العنصر بقسمة عدد الطلاب الذين يختارون الإجابة الصحيحة (24) على إجمالي عدد الطلاب (30). باستخدام هذه الصيغة ، فإن صعوبة السؤال رقم 1 (المشار إليه بـ p) تساوي 24/30 أو .80. تتمثل إحدى القواعد التقريبية لقاعدة الإبهام & quot في أنه إذا كانت صعوبة العنصر أكثر من .75 ، فهي عنصر سهل إذا كانت الصعوبة أقل من 0.25 ، فهي عنصر صعب. بالنظر إلى هذه المعلمات ، يمكن اعتبار هذا العنصر سهلًا إلى حد ما - فقد صحته الكثير (80٪) من الطلاب. في المقابل ، السؤال رقم 2 أكثر صعوبة (12/30 = .40). في الواقع ، بالنسبة للسؤال رقم 2 ، اختار عدد أكبر من الطلاب إجابة غير صحيحة (ب) بدلاً من تحديد الإجابة الصحيحة (أ). يجب تحليل هذا العنصر بعناية للتأكد من أن B هو المشتت المناسب.


مقياس آخر هو مؤشر التمييز، يشير إلى مدى جودة التقييم الذي يميز بين أصحاب الدرجات العالية والمنخفضة. بمعنى آخر ، يجب أن تكون قادرًا على توقع أن الطلاب ذوي الأداء العالي سيختارون الإجابة الصحيحة لكل سؤال أكثر من الطلاب ذوي الأداء المنخفض. إذا كان هذا صحيحًا ، فيُقال أن التقييم يحتوي على أ مؤشر التمييز الإيجابي (بين 0 و 1) - للإشارة إلى أن الطلاب الذين حصلوا على درجة إجمالية عالية اختاروا الإجابة الصحيحة لعنصر معين أكثر من الطلاب الذين حصلوا على درجة إجمالية أقل. ومع ذلك ، إذا وجدت أن المزيد من الطلاب ذوي الأداء المنخفض حصلوا على عنصر معين بشكل صحيح ، فإن العنصر يحتوي على مؤشر التمييز السلبي (بين -1 و 0). لنلقي نظرة على مثال.


يعرض الجدول 2 نتائج عشرة أسئلة في الاختبار. لاحظ أنه يتم ترتيب الطلاب مع أفضل المصححين بشكل عام في أعلى الجدول.


مؤشرات التحكم الوظيفية

تتمثل إحدى الاهتمامات الرئيسية في FMT في الطريقة التي تتعامل بها مع مشكلة جودة الاستجابة الجوهرية. في الواقع ، تستفيد FMT من إنشاء مؤشرات التحكم التي تمكن من الكشف عن استراتيجيات الاستجابة الإشكالية. بعض هذه المؤشرات خاصة بـ FMT ويمكن استخدامها لتحديد ما إذا كانت نتائج الاختبار صحيحة وقابلة للتفسير. يتم استخدام البعض الآخر لتسليط الضوء على تحيزات محددة ويمكنه تحديد بعض مصادر الخطأ (انظر الجدول 1).

الجدول 1. مؤشرات التحكم الوظيفية وتعريفاتها.

تماسك الاستجابة

بالنظر إلى أن خصائص العنصر متعامدة وموحدة في مصفوفة KZ ، فإن الارتباطات التي يعبر عنها s & # x02192 هي أيضًا أوزان بيتا لنموذج الانحدار المتعدد الذي يمكنه توقع استجابة الشخص & # x00027s. مثل هذه الشروط شرعية في حساب مؤشر الارتباط المتعدد الذي يشير إلى درجة الملاءمة بين استجابة الشخص & # x00027s وخصائص العنصر وهذا هو سبب تسميته تماسك الاستجابة. يعني التماسك العالي أن الفرد كان قادرًا على وصف نفسه في إطار مفاهيمي يتقاسمه الفرد والاختبار نفسه (أي الأفراد الآخرين الذين كانت استجاباتهم جزءًا من معايرة الاختبار) في الواقع ، يشير التماسك العالي إلى أن تتكون الردود المقدمة من مجموعة معقدة من المعلومات ولكن يمكن التنبؤ بها. من ناحية أخرى ، يعني التماسك المنخفض أن الردود المقدمة لا يمكن التنبؤ بها بشكل كبير باستخدام جميع الإجابات الأخرى.

رياضيا ، التماسك يعادل معيار متجه الإستراتيجية:

وبالتالي ، يمكن تحديد متجه الاستراتيجية بتقسيمه على التماسك ، مما يوفر درجات z القياسية لكل عامل:

هذه النقطة لها آثار مهمة على مقارنة الموضوع: بما يتفق مع كل من CTT و IRT ، فهذا يعني أن الاستجابات المتطرفة غير متماسكة. بالمقابل ، يؤدي التماسك المنخفض إلى جعل الدرجات القياسية متطرفة. بشكل عام ، فإن العلاقة الرياضية بين درجات العوامل المعيارية وتماسك الاستجابة تسلط الضوء على أن التماسك غير المرضي يجعل الدرجات القياسية غير موثوقة. هذا هو السبب في ضرورة فحص مثل هذا الفهرس حتى قبل التفكير في تفسير نتائج الاختبار. علاوة على ذلك ، هناك خاصية رياضية مهمة أخرى لاتساق الاستجابة وهي أنها تتوافق مع الجذر التربيعي لمشتركة متجه الإستراتيجية. هذا يعني أن مثل هذا المؤشر يشير إلى معامل التحديد ، مما يشير إلى مدى استجابة متجه واحدة & # x00027s يمكن التنبؤ بها. هذا يعني أن التماسك هو مؤشر مباشر للنسبة المئوية للمعلومات القابلة للتفسير والقابلة للاستخدام في إجابة واحدة & # x00027s.

وفقًا لـ Capel (2009) ، يمكن تفسير القيم العالية في التماسك على أنها علامة على تحسين الاستجابة بسبب الاستجابة المرغوبة اجتماعيًا ، أو حتى التزييف. يمكن ملاحظة هذه الظواهر في سياقات الاختيار (باجبي ومارشال ، 2003) ، وهي إشكالية مثل انخفاض التماسك. نظرًا لأن النموذج الإحصائي ليس بشريًا ، فمن غير المرجح أن يكون لدى الأشخاص استجابة متماسكة من 1 ، لذلك تشير مثل هذه الحالات إلى أن المشاركين قدموا وصفًا للنموذج المتوقع بدلاً من وصفهم لأنفسهم. ذكر Capel (2009) أن القيم المنخفضة في تماسك الاستجابة يمكن أن تنتج عن نقص النضج ومن المحتمل أن توجد في المشاركين المراهقين وهذا يتفق مع Soto et al. (2008) مع نهج آخر لتماسك نتائج الاختبار.

موثوقية الاستجابة

مقياس مهم آخر لجودة استجابة واحدة & # x00027s هو موثوقية الاستجابة. موثوقية الاستجابة هي تطبيق غير معتاد لتقنية معروفة جيدًا تستخدم في التحقق من صحة الاختبار ، وهي طريقة التنصيف. عادةً ، تُستخدم طريقة التنصيف لحساب موثوقية النصف الجزئي للاختبار بين عينة من الموضوعات & # x00027 الإجابات التي تحسب الموثوقية النصفية في استجابات شخص واحد فقط & # x00027s ذات صلة قليلة وغير مجدية تمامًا في CTT. ومع ذلك ، سلط درويس (2000) الضوء على إمكانية نمذجة موثوقية القياس. وبالتالي ، فإن الغرض من FMT & # x00027s هو حساب موثوقية النصف المقسّمة بناءً على استجابة نموذجية واحدة & # x00027s. وبالتالي ، يمكن الحصول على متجهين للاستراتيجية (s & # x02032 & # x02192 و s & # x02033 & # x02192) من نصفي الاستبيان الأصلي الذي أكمله فرد واحد ، والعلاقة بين هذين المتجهين هي أول تقدير تقريبي للشخص & موثوقية استجابة # x00027s. ومع ذلك ، ووفقًا لاستخدامها الكلاسيكي ، فإن طريقة التقسيم تقلل من الموثوقية نظرًا لعدد العناصر التي يتم أخذها في الاعتبار من خلال الاختبارات النصفية. الحل الأول هو حساب موثوقية النصف المجزأ بالضبط. نظرًا لأن Cronbach & # x00027s alpha لا يمكن حسابه في FMT (نظرًا لأن كل عنصر مرتبط بكل عامل) هناك احتمال آخر هو حساب متوسط ​​الارتباط بين كل نموذج متوازي ، وهو حل ممكن ولكنه شاق للغاية. كاحتمال متبقي ، يمكن ضبط الموثوقية باستخدام صيغة تصحيح Spearman-Brown:

موثوقية الاستجابة لها أهمية كبيرة في تفسير نتائج الاختبار. تشير موثوقية الاستجابة العالية إلى أن الشخص قد أكمل الاستبيان بعناية ، وأن الشخص كان قادرًا على فهم معنى العناصر ، وأن الشخص كان مستقرًا في الطريقة التي استجاب بها خلال الاختبار. من ناحية أخرى ، تعني موثوقية الاستجابة المنخفضة أن الشخص يعاني من مشاكل في الاستجابة ، تتكون إما من نقص الرعاية أو عدم الفهم أو عدم الاستقرار في الاستجابة (على سبيل المثال ، بسبب التعب). في الواقع ، واحدة من هذه القضايا الثلاث كافية لجعل نتائج الاختبار غير موثوقة على الإطلاق. بالإضافة إلى ذلك ، من المرجح أيضًا أن تؤدي الاستجابات غير الموثوقة إلى تقليل تماسك الاستجابة ، مما يجعلها غير قابلة للاستخدام تمامًا. وبالتالي ، يجب دائمًا التحقق من موثوقية الاستجابة قبل تفسير نتائج الاختبارات.

مستوى الاستجابة والتقلب

على الرغم من أن تماسك الاستجابة وموثوقية الاستجابة هما مؤشرا التحكم الرئيسيان للنظر في ما إذا كانت مجموعة استجابات الاختبار صالحة بما يكفي لتفسيرها ، إلا أن هناك حاجة إلى مزيد من المعلومات لتحديد ما الذي يجعل النتائج غير صالحة أو خادعة. لذلك ، فإن بعض المؤشرات الإضافية ذات فائدة كبيرة لتأكيد وجود تحيزات الاستجابة. أولاً ، يمكن اقتراح مؤشرين مبسطين ولكنهما مفيدان: مستوى الاستجابة و تقلب الاستجابة. لا يقتصر أي من هذين الأمرين على FMT ، ويمكن حساب كليهما بسهولة (أيضًا في CTT). يتكون مستوى الاستجابة من متوسط ​​الردود المعطاة لكل عنصر يجب حسابه قبل إعادة ترميز العناصر المشفرة. تمشيا مع نظرية المعلومات ، يجب أن يكون مستوى الاستجابة متوازنا من أجل تعظيم المعلومات بمعنى آخر ، يجب ألا يكون مستوى الاستجابة قريبًا جدًا من النهايات القصوى لمقياس نوع ليكرت المستخدم. علاوة على ذلك ، يحمل مستوى الاستجابة معنى نفسيًا في المقاييس ذاتية التصنيف ، على سبيل المثال ، يمكن استخدامه لتقدير الدافع العام في الاستجابات لاختبار الاهتمامات المهنية (Gendre et al. ، 2012). بالإضافة إلى ذلك ، يمكن تحديد مستوى الاستجابة من أجل الكشف على وجه التحديد عن الإذعان أو تحيز المعارضة.

تباين الاستجابة يتكون من الانحراف المعياري للاستجابة. بما يتفق أيضًا مع نظرية المعلومات ، يجب موازنة تقلب الاستجابة. تعني القيم الفارغة في التباين أن الشخص قد استخدم نفس الإجابة في الاستبيان. قد تتسبب المعارضة في ذلك ، مما يؤدي إلى إبطال النتائج رسميًا: نمط الاستجابة هذا لا يؤدي إلى أي معلومات. بينما في CTT ، لا تزال النتائج قابلة للحساب وقد يتم تفسيرها بشكل خاطئ ، في FMT ، حيث يكون التسجيل قائمًا على الارتباط ، فإن النتائج ببساطة لا يمكن حسابها. وبالمثل ، فإن القيمة المنخفضة في تقلبية الاستجابة هي علامة على نقص المعلومات الصالحة للاستخدام ، مما يشير إلى أن المرء كان مترددًا في تقديم معلومات عن نفسه. على النقيض من ذلك ، فإن القيم العالية في تباين الاستجابة هي الأفضل بشكل عام ، ولكن يمكن أن تتكون من تحيزات استجابة شديدة أيضًا.

طريقة الاستجابة والمعيارية

قضية مهمة في التقييم النفسي استجابة مرغوبة اجتماعيا (بولهوس ، 1991 ، 2002). اعتمادًا على سياق الاختبار ومحتواه ، يمكن أن تؤدي الاستجابة المرغوبة اجتماعيًا إما إلى استجابات متطرفة أو عادية (أي تبديد السمات غير المرغوب فيها). وبالتالي ، يمكن استخدام نوعين من المؤشرات من أجل الحصول على بعض البصيرة حول هذه الظواهر ، وهما طريقة الاستجابة و معيارية الاستجابة. تشير طريقة الاستجابة إلى اتجاه واحد & # x00027s للإبلاغ عن إجابات نمطية للعناصر. يمكن اقتراح صيغ مختلفة لتقدير طريقة الاستجابة. وفقًا لـ Capel (2009) ، يمكن قياس طريقة الاستجابة من خلال متوسط ​​الحاصل بين نسبة الأشخاص الذين قدموا نفس الإجابة على العنصر ونسبة الأشخاص الذين أجابوا بالإجابة النموذجية:

نتج عن الصيغة الأصلية Capel & # x00027s قيمة يمكن أن تختلف من 0 إلى 1. ومع ذلك ، فإن الاحتمال الأفضل هو استخدام كابا الموزون Cohen & # x00027s لقياس مدى تقارب إجابة واحدة & # x00027s مع كل إجابة نمطية ، مما يوفر مؤشرًا ارتباطًا يمكنه يتم تحويلها إلى النسبة المئوية للتباين التي يتم شرحها من خلال الاستجابة النموذجية.

المؤشر الثاني المتعلق بالاستجابة المرغوبة هو معيارية الاستجابة. تتكون معيارية الاستجابة من الارتباط بين إجابة واحدة & # x00027s ووسائل كل عنصر. هذا المؤشر أقل صلة بقياس عدد المرات التي يتم فيها تقديم الإجابات النموذجية من طريقة الاستجابة بدلاً من ذلك ، فهو يركز على التوافق العالمي مع الإجابات المتوسطة. بعبارة أخرى ، معيار الاستجابة يقيس ما إذا كان الشخص يجيب بقيم عالية حيث يفعل الناس عمومًا والقيم المنخفضة حيث يفعل الناس عمومًا ، أو ما إذا كان الشخص لا يفعل ذلك. اقترح Furr (2008) و Leary and Allen (2011a، b) وضع تصور للوصف الذاتي كدالة لاتجاهين: عرض معياري يناسب المجموعة المعيارية ، ووصف مميز يغطي الاختلافات مع المجموعة المعيارية. في هذه المصطلحات ، تعد معيارية الاستجابة مقياسًا للجزء المعياري ضمن الوصف الذاتي لأحد المشاركين & # x00027s ، بينما طريقة الاستجابة هي مقياس للجزء المميز في وصفه الذاتي (أي ، كلما كانت طريقة الاستجابة أعلى ، أقل تميزًا & # x00027s العرض الذاتي هو).

ترتبط طريقة الاستجابة ومعيارية الاستجابة ارتباطًا وثيقًا ويجب تفسيرهما معًا. تشير القيم العالية في طريقة الاستجابة إلى اختيار العديد من الإجابات النموذجية ، وهو شكل من أشكال كل من الابتذال والتوافق الاجتماعي. فيما يتعلق بمعيارية الاستجابة ، فإن القيم العالية تعني أن استجابة واحدة & # x00027s مرتبطة ارتباطًا وثيقًا بوسائل العنصر بمصطلحات متجهة ، وهذا يعني أن متجهًا واحدًا & # x00027s للاستراتيجية والأشخاص & # x00027 يعني متجهًا للاستراتيجية له نفس الاتجاه (على سبيل المثال ، لا يوجد سوى زاوية صغيرة بين كلا المتجهين) ، ويمكن أن يكون هذا هو الحال حتى لو كانت طريقة الاستجابة منخفضة. فيما يتعلق بكلا المؤشرين ، تشير القيم المنخفضة جدًا أو حتى السلبية في كل من طريقة الاستجابة والمعيارية إلى استراتيجية استجابة إشكالية. إنه متوافق مع تماسك الاستجابة المقبولة وموثوقية الاستجابة ، ولكن يمكن أن ينتج عن الإبلاغ عن إجابات عكسية عن طريق الخطأ وفقًا لـ Capel (2009) ، يمكن العثور على مثل هذه الأخطاء بين 1 & # x020132 ٪ من استبيانات الشخصية. في هذه الحالة ، الحل الوحيد هو السؤال عما قصده الشخص بالإجابة بالطريقة التي فعلها.

ايجابية الاستجابة والسلبية

أخيرًا ، يتم استخدام مؤشرين وظيفيين من أجل التحقيق في الاستجابة المرغوبة اجتماعيًا: ايجابية الاستجابة و سلبية. من أجل حسابها ، يتم تحديد معظم العناصر الإيجابية والسلبية وفقًا للأفراد & # x00027 تصنيفات من مصفوفة KZ من أجل إنشاء مصفوفتين مرتبطتين على التوالي بالعناصر الإيجابية أو السلبية. بعد ذلك ، يمكن حساب المتجهات الجديدة للاستراتيجية ، بناءً على العناصر الإيجابية أو السلبية المحددة: أحدهما يتعلق بالجوانب الإيجابية ، والآخر يتعلق بالجوانب السلبية. أخيرًا ، تتوافق إيجابية الاستجابة مع مجموع ناتج متجه الاستراتيجية والمتجه الخاص بالمحتويات الإيجابية:

بالطريقة نفسها ، سلبية الاستجابة هي مجموع ناتج متجه الاستراتيجية والمتجه الخاص بالمحتويات السلبية:

يجب دائمًا تفسير إيجابية الاستجابة والسلبية معًا ، مع التركيز بشكل إضافي على التركيبات غير المتماثلة. على وجه الخصوص ، فإن الإيجابية العالية والسلبية المنخفضة تسلط الضوء على استراتيجيات استجابة قوية مرغوبة اجتماعيًا ، وتشير هذه النتائج إلى أن الفرد لديه تمثيلات كافية للتوقعات المعيارية ، وأنه ينوي تلبية هذه التوقعات. على العكس من ذلك ، يمكن أن تنجم الإيجابية المنخفضة والسلبية العالية عن التزييف بالسوء ، أو يمكن أن تشير إلى عدم وجود ضمير في التوقعات الاجتماعية ، وهو أمر مهم أيضًا للتحقيق. ومع ذلك ، فإن الاختلافات الكبيرة بين كلا المؤشرين تقلل بشكل منهجي من صحة التقييم (Gendre and Capel ، 2013).


بعض الاقتراحات لتدابير الموثوقية

كما ذكرنا سابقًا ، قد تؤدي الطرق المختلفة لحساب الموثوقية إلى تقديرات أكثر تحفظًا أو ليبرالية. بالإضافة إلى ذلك ، تختلف المقاييس في سهولة حسابها. وبالتالي ، قد يختار الممارسون المقاييس بناءً على ما إذا كانت المعايير الصارمة أو سهولة الحساب مرغوبة ، وكذلك على نوع البيانات المتاحة.

تختلف مقاييس الموثوقية بطريقتين على الأقل: حجم النافذة الزمنية ونوع البيانات. قد تجعل النوافذ الزمنية الأكبر العمليات الحسابية أسهل من الحسابات الأصغر. تتمثل إحدى أبسط طرق حساب الموثوقية في حساب العدد الإجمالي للردود التي تم تسجيلها (أو العدد الإجمالي للفترات التي تحتوي على ردود ، اعتمادًا على نظام جمع البيانات) بواسطة كل مراقب طوال فترة المراقبة ، لتقسيم الرقم الأصغر على الأكبر number ، ثم الضرب في 100. ينتج عن هذا نسبة مئوية إجمالية من الموافقة على تلك الملاحظة. تعتبر مقاييس الجلسة بأكملها سهلة الفهم والحساب ، ولكنها توفر فقط تقديرًا ليبراليًا لموثوقية جمع البيانات. على سبيل المثال المتطرف ، يمكن لمراقب واحد تسجيل 10 حالات من استجابة الهدف ، ثم يصبح مشتتًا أو ينام. قد يفوت المراقب الثاني تلك الاستجابات العشرة الأولية ، لكنه يسجل لاحقًا 10 استجابات أخرى (بينما ينام المراقب الأول). سيكون مقياس الموثوقية للجلسة الكاملة لمجموعتي البيانات هاتين 100 & # x00025 لأن كلا المراقبين سجلا 10 ردود ، لكن هذه الاستجابات كانت ستحدث في أوقات مختلفة تمامًا.

استخدام فترات أقصر ضمن فترة مراقبة أطول يجعل حسابات الموثوقية أكثر صرامة ويحسن الثقة في أن كلا المراقبين كانا يسجلان نفس السلوك. أحيانًا ما يسمى استخدام فترات أقصر داخل الجلسة بالطريقة المتناسبة. لحساب الاتفاق النسبي ، يتم تقسيم وقت المراقبة الإجمالي إلى وحدات منفصلة (فترات زمنية). على سبيل المثال ، يمكن تقسيم ملاحظة مدتها 10 دقائق إلى فترات 60 و 10 ثوانٍ. ثم تتم مقارنة سجلات المراقبين في كل فترة 10 ثوانٍ. على سبيل المثال ، إذا سجل أحد المراقبين حالتين من السلوك في أول فترة من 10 ثوانٍ وسجل مراقب ثانٍ ثلاث حالات من السلوك في الفاصل الزمني الأول ، فإن موثوقية تلك الفترة ستكون 66.7 & # x00025 (حالتان مقسومة على ثلاث حالات ومضروبة في 100). بمجرد حساب الموثوقية لجميع الفواصل الزمنية في الملاحظة ، يتم حساب متوسط ​​الدرجات للحصول على متوسط ​​الموثوقية للملاحظة بأكملها. على الرغم من شيوع فترات 10-s في البحث ، إلا أن الفواصل الزمنية الأكبر مثل 1 min أو 5 min قد تكون أكثر عملية في الاستخدام اليومي.

الموثوقية النسبية لها العديد من المزايا الممكنة مقارنة بالموثوقية الكاملة للجلسة. أولاً ، التدابير النسبية أكثر صرامة من تدابير الجلسة بأكملها. من خلال تقسيم الجلسة إلى وحدات أصغر ، تقلل حسابات الفاصل الزمني من احتمالية الحصول على موثوقية جيدة عندما يسجل مراقبان استجابات مختلفة تمامًا (كما في المثال المعطى لموثوقية الجلسة بأكملها أعلاه).

طريقة أخرى هي طريقة الاتفاق الدقيق ، والتي يتم فيها تسجيل فترات المراقبة على أنها & # x0201cagreement & # x0201d إذا قام كلا المراقبين بحساب نفس عدد حالات السلوك بالضبط. إذا لم يتفقوا تمامًا ، يتم تسجيل الفاصل الزمني كـ & # x0201cdisagreement. & # x0201d ثم يتم تقسيم عدد الاتفاقيات على إجمالي عدد الفواصل الزمنية وتحويلها إلى نسبة مئوية. هذه الطريقة أكثر تحفظًا من الطريقة التناسبية ، لكنها في بعض الأحيان قد تكون شديدة التحفظ. على سبيل المثال ، عندما يكون المراقبون بعيدون قليلاً في توقيتهم ، فإن السلوك الذي تم تسجيله في فترة زمنية واحدة لمراقب واحد وفي فترة أخرى لمراقب ثان ينتج فترتي اختلاف على الرغم من أن كلا المراقبين كانا يسجلان نفس الحدث السلوكي.

يتم استخدام طريقة أخرى للاعتمادية عندما يكون الفاصل الزمني الجزئي أو التسجيل بفاصل زمني كامل في مكانه الصحيح. يشير الفاصل الزمني الجزئي إلى تسجيل الفاصل الزمني إذا حدث السلوك في أي نقطة في تلك الفترة الزمنية. يشير التسجيل بالفاصل الزمني الكامل إلى تسجيل الفاصل الزمني إذا حدث السلوك خلال الفترة. وبالتالي ، لا يوجد & # x0201ccount & # x0201d للسلوك ، يتم تسجيل الفاصل الزمني ببساطة كـ & # x0201coccurrence & # x0201d أو & # x0201cnoccurrence. & # x0201d في حالة التسجيل بالفاصل الزمني ، يمكن حساب الموثوقية عن طريق الإشارة إلى كل فترة على أنها إما اتفاقية (سجل كلا المراقبين سلوكًا أو لم يسجلوا السلوك) أو خلافًا (سجل أحد المراقبين سلوكًا بينما لم يسجل الآخر). ثم يتم تقسيم العدد الإجمالي للاتفاقات الخاصة بالجلسة على الاتفاقات بالإضافة إلى الخلافات وضربها في 100 للحصول على متوسط ​​الموثوقية للملاحظة بأكملها.

لسوء الحظ ، تكون الحسابات الفاصلة بين الفترات غير عملية أو مستحيلة في بعض الأحيان. هذا هو الحال إذا كان نظام جمع البيانات لا يسمح بتقسيم السجلات إلى وحدات أصغر. على سبيل المثال ، افترض أن المعلم يجمع بيانات عن عدد المرات التي يرفع فيها الطالب يده طوال الفصل عن طريق عمل علامات العد على قطعة من الورق. بالنسبة لبعض الفصول ، يسجل مراقب ثان (على سبيل المثال ، مستشار سلوكي) أيضًا حالات رفع اليد باستخدام التعداد. في هذه الحالة ، سيكون من الصعب حساب موثوقية الفاصل الزمني على حدة لأنه لا يمكن تقسيم السجلات بسهولة إلى وحدات أصغر ، ومن المستحيل معرفة متى سجل المعلم أول حالة لرفع اليد ومقارنتها ببيانات الاستشاري.

أيضًا ، أحيانًا ما تضخم طرق الموثوقية الفاصلة على حدة الاتفاق أو تنكمش بناءً على ما إذا كان السلوك يحدث بمعدل مرتفع أو منخفض. بالعودة إلى المثال المتطرف للمراقب الذي ينام ، قد تحدث درجات عالية من التوافق بسبب حقيقة أنه لم يحدث الكثير من السلوك. وبالمثل ، مع ارتفاع معدل السلوك ، يمكن للمراقب بشكل أساسي التوقف عن المشاهدة ولكنه يستمر في تسجيل الكثير من السلوك والحصول على درجة عالية. لمعالجة هذه الاحتمالات ، من الممكن تسجيل اتفاق على فترات الحدوث فقط (أي ، فقط تقييم تلك الفترات التي سجل فيها أحد المراقبين أو الآخر حدوث السلوك) وتسجيل اتفاق على فترات عدم التكرار (أي ، تقييم تلك الفترات فقط) الفترات التي سجل فيها أحد المراقبين أو الآخر عدم حدوث السلوك). من خلال تقييم اتفاق الحدوث وعدم التكرار ، تصبح درجات الموثوقية أقل حساسية لتقلبات الأسعار.


كيفية الرد على المراجعات السلبية

من الصعب الرد على المراجعات السلبية. التعليقات السيئة مؤلمة وأحيانًا يمكن أن تكون قاسية تمامًا.

في حين أنه من الطبيعي أن تنزعج من تعليقاتك السلبية ، فمن المهم ألا تفقد هدوئك أو تشعر بالرغبة في الانتقام. في كثير من الحالات ، من الحكمة الابتعاد عن لوحة المفاتيح ، حتى لا تملي عواطفك ما ستكتبه في ردك على تعليق سلبي. بدلاً من ذلك ، توصل إلى حالة ذهنية هادئة واستجب بطريقة احترافية.

إليك نموذج يمكنك استخدامه لمعرفة كيفية الرد على التعليقات السلبية:

عزيزي [اسم المحقق] ، نشكرك على مشاركة ملاحظاتك. نأسف لأن تجربتك لم تتوافق مع توقعاتك. لقد كان مثالًا غير مألوف وسنعمل بشكل أفضل في المستقبل.

لا تتردد في التواصل مع [INSERT CONTACT INFORMATION] بخصوص أي تعليقات أو مخاوف أو اقتراحات أخرى ترغب في مشاركتها. نود أن نجعل الأمور في نصابها الصحيح إذا منحتنا فرصة أخرى.

من الواضح أن كيفية استجابتك للمراجعات السلبية ستختلف من موقف إلى آخر ، لكن فكر في النموذج أعلاه باعتباره نموذجًا لجميع الأغراض. إنها نقطة انطلاق رائعة يمكن أن تكون بمثابة الأساس لاستجابة رائعة.

دعنا نوضح هذا بمزيد من التفصيل عن طريق فحص ما يقال غالبًا عندما تستجيب الشركات للتعليقات السلبية والإيجابية.

بينما تعتذر الأنشطة التجارية ، فإنها تمثل جزءًا صغيرًا نسبيًا من الاستجابة (13٪). لماذا ا؟ لأنه قد يبدو أحيانًا أن الإفراط في الاعتذار أمر غير مهني. بدلاً من ذلك ، تركز العلامات التجارية على التزامها بالخدمة وإدارة تجربة العملاء و "الخطوات التالية" (على سبيل المثال ، كيف يمكن للمستهلك الاتصال بهم مباشرة).

يطبق النموذج أعلاه عددًا من أفضل الممارسات في الرد على المراجعات السلبية.

خاطب المحكم

يريد عملاؤك أن يُسمع صوتهم بشكل فردي وأن يتم مخاطبتهم شخصيًا. لذلك لا تنسى تحياتك ، وإذا أمكن ، تجنب العبارة العامة "عزيزي الضيف" أو "عزيزي العميل".

وفقًا لبيانات مراجعات العملاء ، 76٪ من جميع المراجعات إما على Google و Facebook. هذا يعني أنه يمكنك عادةً الحصول على اسم المراجع واستخدامه كطريقة لتخصيص ردك بشكل أكبر.

قل شكرا

أظهر للعملاء أن شركتك تقدر وتقدر التعليقات الصريحة غير المرغوب فيها. تذكر دائمًا أن تقول شكرًا لك في الردود على التعليقات (حتى المراجعات السيئة).

في ما يلي بعض الاختلافات حيث يقطع قول "شكرًا" شوطًا طويلاً:

"شكرا لك، لمراجعتك. يؤسفني أن أسمع أنك مررت بتجربة محبطة ، لكنني أقدر حقًا لفت انتباهي إلى هذه المشكلة ".

"شكرًا لك على لفت انتباهنا إلى هذا. نأسف لأنك مررت بتجربة سيئة. سنسعى جاهدين لتقديم الأفضل. "

"شكرا لإعلامنا بهذا. تساعدنا ملاحظاتك على القيام بعمل أفضل. نحن ندرس هذه المشكلة ونأمل في حلها على وجه السرعة وبدقة ".

اعتذر وتعاطف

يُظهر قول آسف أنك تهتم بعملائك وأنك لست فخورًا جدًا بالاعتراف بأخطائك.

حتى لو لم يكن هذا خطأك ، قل آسف على أي حال. هذه فرصة رائعة لتأسيس وتعزيز الثقة بين شركتك أو علامتك التجارية والعميل. بالإضافة إلى ذلك ، غالبًا ما يتم إيقاف الأشخاص من قبل الشركات المثالية جدًا أو الفخورة جدًا للاعتذار.

تمامًا مثل بقية الردود ، اجعل اعتذارك قصيرًا ولطيفًا:

"نأسف لأن خدمتنا لم تلب توقعاتك."

"نحن آسفون جدًا لأن تجربتك لم تتوافق مع توقعاتك. هذا علينا.

"لقد وضعنا معايير عالية لأنفسنا ، ونأسف جدًا لسماع أن هذا لم يتحقق في تفاعلك مع أعمالنا."

تحمل المسؤولية

لا تختلق الأعذار. حتى لو كان ما حدث حالة غير شائعة ، حالة منعزلة ، حادثة مؤسفة ، يوم عطلة - اعترف بتجربة العميل. في الوقت نفسه ، تأكد من أنك تلتزم بمعايير عالية.

"انا اسف جدا. نحن معروفون عادة باهتمامنا الاستثنائي بالتفاصيل ، ونأسف لأننا فقدنا هذه العلامة ".

"نهدف دائمًا إلى تقديم تجربة رائعة ، ونشعر بالفشل عندما لا نلبي التوقعات. نشكرك على الوقت الذي أمضيته في لفت انتباهنا إلى هذا الأمر. سنستخدم التعليقات لجعلنا أفضل ولضمان عدم حدوث ذلك مرة أخرى ".

"شكرًا لك على نشر تعليق ونأسف لسماع أن تجربتك لم تكن ترقى إلى مستوى المعايير. نود أن تتاح لنا الفرصة للتحدث والتحقيق في تعليقاتك بشكل أكبر ".

اجعل الأمور في نصابها الصحيح

عند التعامل مع التعليقات السلبية ، حاول تجنب الاستجابات المقلدة التي لا تحل أو تعالج أي مشكلات محددة أثيرت في المراجعة. قم بتضمين تفاصيل حول تجربة العميل في ردك (عند الاقتضاء) ، وقم بإبلاغ أي تغييرات أو تحسينات قمت بإجرائها أو ستجريها نتيجة لتعليقاتهم.

إذا لم يكن هناك ما يمكنك فعله لإصلاح ما حدث ، فإليك طريقة مقنعة للرد على المراجع ، والحصول على الملكية ، والتعهد بتصحيح الأمور في المستقبل:

"أعتذر نيابة عن الجميع في [اسم الشركة]. يرجى العلم أن وضعك كان استثناء. كما ترى في المراجعات الأخرى ، نحن معروفون بأخذ الملكية والاهتمام بعمق بعملائنا. لا يمكننا إصلاح الماضي ولكن لديك التزامي الشخصي لتحسين الطريقة التي يخدم بها موظفونا كل عميل. حتى ذلك الحين ، أرجو قبول أخلص اعتذاري نيابة عن كل فرد في الفريق ".

خذ المشكلة في وضع عدم الاتصال

من الأفضل دائمًا لك ولعميلك التحدث مباشرة عن المشكلة التي يواجهونها والتخلص من المشكلة في وضع عدم الاتصال. هذا يوفر أي إحراج إضافي من جانبك من المشكلة ويمنع التدخل من مصادر خارجية. لهذا السبب ، يجب عليك تقديم معلومات الاتصال المباشر للعملاء في ردك على المراجعة.

إليك بعض الأشياء التي يمكنك قولها:

"نود أن تتاح لنا الفرصة لإجراء مزيد من التحقيق في تعليقاتك. من فضلك ، هل يمكنك الاتصال بي على [عنوان البريد الإلكتروني] أو الاتصال بفريقنا على [رقم الهاتف]؟ سنعمل معك لحل أي مشاكل في أسرع وقت ممكن ".

"نأسف لأن تجربتك في [Company Name] لم تتوافق تمامًا مع توقعاتك. نود معرفة السبب ، حتى نتمكن من تقديم تجربة أفضل في المرة القادمة. يمكنك التواصل معنا في أي وقت على [عنوان البريد الإلكتروني] أو [رقم الهاتف]. مرة أخرى ، شكرًا لك على ملاحظاتك! "

Ask for A Second Chance

Don’t slam the door on negative reviewers. Instead, extend a (digital) hand. Invite them to come back and when they do, welcome them with open arms.

Not only does this create an opportunity for you to change the conversation it also establishes confidence in your ability to deliver an experience worth raving (instead of ranting) about.

“Thank you for bringing this matter to our attention. I’m very sorry we failed to meet your expectations. I would appreciate another chance to earn your business. Please call me or ask for me next time you’re at [Company Name].”


Item difficulty and discrimination: Quintile table

Part III of the Item Analysis output, an item quintile table, can aid in the interpretation of Part IV of the output. Part IV compares the item responses versus the total score distribution for each item. A good item discriminates between students who scored high or low on the examination as a whole. In order to compare different student performance levels on the examination, the score distribution is divided into fifths, or quintiles. The first fifth includes students who scored between the 81st and 100th percentiles the second fifth includes students who scored between the 61st and 80th percentiles, and so forth. When the score distribution is skewed, more than one-fifth of the students may have scores within a given quintile and as a result, less than one-fifth of the students may score within another quintile. The table indicates the sample size, the proportion of the distribution, and the score ranges within each fifth.

* * * MERMAC -- TEST ANALYSIS AND QUESTIONNAIRE PACKAGE * * *

THE QUINTILE GRAPH AND MATRIX OF RESPONSES
APPEARING WITH EACH ITEM ARE BASED ON THE
STATISTICS INDICATED IN THE TABLE BELOW:

QUINTILE
SAMPLE SIZE
PROPORTION
SCORE RANGE
1ST
128
0.21
77 - 92
2ND
127
0.21
70 - 76
3RD
121
0.20
64 - 69
4TH
121
0.20
56 - 63
5TH
106
0.18
24 - 55


Continuous Schedule of Reinforcement (CRF)

Within an educational setting, a CRF would mean that the teacher would deliver reinforcement after every correct response from their student/s. For example, if you were teaching a student to read the letters A, B, C, and D, then everytime you presented one of these letters to your student and they correctly read the letter then you would deliver reinforcement.

For an everday example, every time you press the number 9 button on your television remote control your TV changes to channel 9 or every time you turn on your kettle it heats up the water inside it or every time you turn on your kitchen tap (faucet) water flows out of it (unless any of these are broken of course).


Sending AP Scores

After you take an AP Exam, we send your score report to the college or university that you designated in My AP. Your score report is cumulative and includes scores for all the AP Exams you have ever taken, unless you requested that one or more scores be withheld from a college or canceled. When you go online you will be able to see your entire score report and score-send history. If you wish to send additional score reports to colleges, universities, and scholarship programs you can do so online for a fee. Learn more about sending your scores to colleges and universities.


Determining Sample Size in Surveys Research

Different rules apply to quantitative research and qualitative research when it comes to determining sample size. Generally speaking, to be confident in the data generated by qualitative survey research, a researcher needs to have a clear idea of how the data will be used. The data may form the basis for a descriptive narrative (as in a case study or some ethnographic research) or it may serve in an exploratory fashion to identify relevant variables that might later be tested for correlations in a quantitative study.


Determining Sample Size in Surveys Research

Different rules apply to quantitative research and qualitative research when it comes to determining sample size. Generally speaking, to be confident in the data generated by qualitative survey research, a researcher needs to have a clear idea of how the data will be used. The data may form the basis for a descriptive narrative (as in a case study or some ethnographic research) or it may serve in an exploratory fashion to identify relevant variables that might later be tested for correlations in a quantitative study.


Continuous Schedule of Reinforcement (CRF)

Within an educational setting, a CRF would mean that the teacher would deliver reinforcement after every correct response from their student/s. For example, if you were teaching a student to read the letters A, B, C, and D, then everytime you presented one of these letters to your student and they correctly read the letter then you would deliver reinforcement.

For an everday example, every time you press the number 9 button on your television remote control your TV changes to channel 9 or every time you turn on your kettle it heats up the water inside it or every time you turn on your kitchen tap (faucet) water flows out of it (unless any of these are broken of course).


How to obtain percent correct responses from the QUEST data - Psychology


After you create your objective assessment items and give your test, how can you be sure that the items are appropriate -- not too difficult and not too easy? How will you know if the test effectively differentiates between students who do well on the overall test and those who do not? An item analysis is a valuable, yet relatively easy, procedure that teachers can use to answer both of these questions.

To determine the difficulty level of test items, a measure called the Difficulty Index يستخدم. This measure asks teachers to calculate the proportion of students who answered the test item accurately. By looking at each alternative (for multiple choice), we can also find out if there are answer choices that should be replaced. For example, let's say you gave a multiple choice quiz and there were four answer choices (A, B, C, and D). The following table illustrates how many students selected each answer choice for Question #1 and #2.

For Question #1, we can see that A was not a very good distractor -- no one selected that answer. We can also compute the difficulty of the item by dividing the number of students who choose the correct answer (24) by the number of total students (30). Using this formula, the difficulty of Question #1 (referred to as p) is equal to 24/30 or .80. A rough "rule-of-thumb" is that if the item difficulty is more than .75, it is an easy item if the difficulty is below .25, it is a difficult item. Given these parameters, this item could be regarded moderately easy -- lots (80%) of students got it correct. In contrast, Question #2 is much more difficult (12/30 = .40). In fact, on Question #2, more students selected an incorrect answer (B) than selected the correct answer (A). This item should be carefully analyzed to ensure that B is an appropriate distractor.


Another measure, the Discrimination Index, refers to how well an assessment differentiates between high and low scorers. In other words, you should be able to expect that the high-performing students would select the correct answer for each question more often than the low-performing students. If this is true, then the assessment is said to have a positive discrimination index (between 0 and 1) -- indicating that students who received a high total score chose the correct answer for a specific item more often than the students who had a lower overall score. If, however, you find that more of the low-performing students got a specific item correct, then the item has a negative discrimination index (between -1 and 0). Let's look at an example.


Table 2 displays the results of ten questions on a quiz. Note that the students are arranged with the top overall scorers at the top of the table.


How to Respond to Negative Reviews

Responding to negative reviews is difficult. Bad reviews hurt and sometimes they can be downright cruel.

While it’s natural to get upset about your negative reviews, it’s important not to lose your cool or feel like retaliating. In many cases, it’s wise to step away from the keyboard, so that your emotions don’t dictate what you’re going to write in your response to a negative review. Instead, get to a calm mental state and respond in a professional manner.

Here’s a template that you can use to learn how to respond to negative reviews:

Dear [NAME OF REVIEWER], thanks for sharing your feedback. We’re sorry your experience didn’t match your expectations. It was an uncommon instance and we’ll do better in the future.

Please feel free to reach out to [INSERT CONTACT INFORMATION] with any further comments, concerns, or suggestions you wish to share. We would love to make things right if you give us another chance.

Obviously, how you respond to negative reviews will vary from situation to situation, but think of the above template as an all-purpose one. It’s a great starting point that can serve as the foundation for a great response.

Let’s break this down further by examining what’s often said when companies respond to negative and positive reviews.

While businesses do apologize, it’s only a relatively small part of the response (13%). لماذا ا؟ Because it can sometimes come across as unprofessional to be overly apologetic. Instead, brands focus on their commitment to service, customer experience management , and “next steps” (e.g., how a consumer can contact them directly).

The template above applies a number of the best practices in responding to negative reviews.

Address the Reviewer

Your customers want to be heard individually and addressed personally. So don’t forget your salutations and, if possible, avoid the generic “Dear guest,” or “Dear customer.”

According to customer reviews data, 76% of all reviews are either on Google and Facebook. This means you can usually get the name of the reviewer and use it as a way to further personalize your response.

Say Thank You

Show customers that your company appreciates and values candid unsolicited feedback . Always remember to say thank you in responses to reviews (even the bad ones).

Here are some variations where saying “thank you” goes a long way:

“Thank you for your review. I’m sorry to hear you had a frustrating experience, but I really appreciate you bringing this issue to my attention.”

“Thank you for bringing this to our attention. We’re sorry you had a bad experience. We’ll strive to do better. "

“Thank you for letting us know about this. Your feedback helps us do better. We are looking into this issue and hope to resolve it promptly and accurately.”

Apologize and Sympathize

Saying sorry shows that you care about your customers and that you’re not too proud to own up to your mistakes.

Even if it’s not your fault, say sorry anyway. This is a great opportunity to establish and strengthen trust between your company or brand and the customer. Besides, people often get turned off by businesses that are too perfect or too proud to apologize.

Just like the rest of the response, keep your apologies short and sweet:

“We apologize that our service did not satisfy your expectations.”

“We’re so sorry that your experience did not match your expectations. This is on us.”

“We set a high standard for ourselves, and we’re so sorry to hear this was not met in your interaction with our business.”

Take Responsibility

Don’t make excuses. Even if what happened was an uncommon instance, an isolated case, an unfortunate incident, an off day — acknowledge the customer’s experience. At the same time, provide reassurance that you hold yourself to high standards.

“I’m so sorry. We’re normally known for our exceptional attention to detail, and we regret that we missed the mark.”

“We always aim to deliver a great experience, and we are gutted when we don’t meet expectations. Thanks for taking the time to bring this to our attention. We will use the feedback to make us better and to ensure this doesn’t happen again.”

“Thank you for posting a review and we’re sorry to hear that your experience was not up to standards. We would like the opportunity to talk and investigate your feedback further.”

Make Things Right

When dealing with negative feedback, try to avoid cookie-cutter responses that do not resolve or address any specific issues raised in the review. Include details about the customer’s experience in your response (when relevant), and communicate any changes or improvements you have made or will make as a result of their feedback.

If there’s nothing you can do to fix what happened, here’s a compelling way to respond to the reviewer, take ownership, and promise to make things right in the future:

“I apologize on behalf of everyone at [Company Name]. Please know that your situation was an exception. As you can see on other reviews, we are known for taking ownership and caring deeply about our customers. We can’t fix the past but you have my personal commitment to improve the way our staff serves every customer. Until then, please accept my sincerest apologies on behalf of everyone on the team.”

Take the Issue Offline

It’s always best for you and your customer to talk directly about the problem they had and take the issue offline. This saves any further embarrassment on your side of the issue and prevents interference from outside sources. For this reason, you should provide direct contact information for customers in your review response.

Here are some things you can say:

“We would like the opportunity to investigate your feedback further. Please could you contact me at [Email Address] or call our team at [Phone Number]? We’ll work with you to resolve any issues as quickly as possible.”

“We are sorry that your experience at [Company Name] didn’t quite match your expectations. We would love to know why, so that we can deliver a better experience next time. You may reach us anytime at [Email Address] or [Phone Number]. Again, thank you for your feedback!”

Ask for A Second Chance

Don’t slam the door on negative reviewers. Instead, extend a (digital) hand. Invite them to come back and when they do, welcome them with open arms.

Not only does this create an opportunity for you to change the conversation it also establishes confidence in your ability to deliver an experience worth raving (instead of ranting) about.

“Thank you for bringing this matter to our attention. I’m very sorry we failed to meet your expectations. I would appreciate another chance to earn your business. Please call me or ask for me next time you’re at [Company Name].”


Asch conformity experiments

في علم النفس ، فإن Asch conformity experiments أو ال Asch paradigm were a series of studies directed by Solomon Asch studying if and how individuals yielded to or defied a majority group and the effect of such influences on beliefs and opinions. [1] [2] [3] [4]

Developed in the 1950s, the methodology remains in use by many researchers. Uses include the study of conformity effects of task importance, [5] age, [6] gender, [7] [8] [9] [10] and culture. [5] [10]


Item difficulty and discrimination: Quintile table

Part III of the Item Analysis output, an item quintile table, can aid in the interpretation of Part IV of the output. Part IV compares the item responses versus the total score distribution for each item. A good item discriminates between students who scored high or low on the examination as a whole. In order to compare different student performance levels on the examination, the score distribution is divided into fifths, or quintiles. The first fifth includes students who scored between the 81st and 100th percentiles the second fifth includes students who scored between the 61st and 80th percentiles, and so forth. When the score distribution is skewed, more than one-fifth of the students may have scores within a given quintile and as a result, less than one-fifth of the students may score within another quintile. The table indicates the sample size, the proportion of the distribution, and the score ranges within each fifth.

* * * MERMAC -- TEST ANALYSIS AND QUESTIONNAIRE PACKAGE * * *

THE QUINTILE GRAPH AND MATRIX OF RESPONSES
APPEARING WITH EACH ITEM ARE BASED ON THE
STATISTICS INDICATED IN THE TABLE BELOW:

QUINTILE
SAMPLE SIZE
PROPORTION
SCORE RANGE
1ST
128
0.21
77 - 92
2ND
127
0.21
70 - 76
3RD
121
0.20
64 - 69
4TH
121
0.20
56 - 63
5TH
106
0.18
24 - 55


Functional Control Indices

One of the main interests in FMT is the way that it deals with the problem of intrinsic response quality. Indeed, FMT takes advantage of the creation of control indices that enable the detection of problematic response strategies. Some of those indices are specific to FMT they can be used to determine whether test results are valid and interpretable. Others are used to highlight specific biases and can identify some sources of error (see Table 1).

Table 1. Functional control indices and their definitions.

Response Coherence

Given that item characteristics are orthogonal and standardized in the KZ matrix, the correlations expressed by s → are also the beta weights of a multiple regression model that can predict a person's response. Such conditions legitimate the calculation of a multiple correlation index that indicates the degree of fit between the person's response and the item characteristics this is why it is named response coherence. A high coherence means that the individual was able to describe himself or herself in a conceptual framework that is shared by the individual and the test itself (i.e., other individuals whose responses were part of the test calibration) indeed, a high coherence implies that the responses given consist of a complex but still predictable set of information. On the other hand, a low coherence means that the responses given are not very predictable using all of the other ones.

Mathematically, the coherence is equivalent to the norm of the vector of strategy:

Consequently, the vector of strategy can be normed by dividing it by the coherence, providing standard z-scores for each factor:

This point has important implications for subject comparison: Consistent with both CTT and IRT, it means that extreme responses are incoherent. Reciprocally, low coherence makes the standard scores extreme. Over all, the mathematical relation between standard factor scores and response coherence highlights that unsatisfactory coherence makes the standard scores unreliable. This is why such an index should be checked even before considering the interpretation of test results. Furthermore, another important mathematical quality of the response coherence is that it corresponds to the square root of the communality of the vector of strategy. This implies that such an index refers to a coefficient of determination, thereby indicating how predictable one's vector response is. This means that the coherence is a direct indicator of the percentage of interpretable and usable information in one's responses.

According to Capel (2009), high values in coherence could be interpreted as a sign of response refinement due to socially desirable responding, or even faking. Such phenomena can be observed in selection contexts (Bagby and Marshall, 2003), and are as problematic as low coherence. Because a statistical model is not human, people are unlikely to have a response coherence of 1, so such cases indicate that participants gave the description of an expected model rather than of themselves. Capel (2009) stated that low values in response coherence could result from a lack of maturity and are likely found in adolescent participants this is consistent with Soto et al. (2008) results with another approach of test results coherence.

Response Reliability

Another important measure of one's response quality is response reliability. Response reliability is an unusual application of a well-known technique used in test validation, namely the bisection method. Usually, the bisection method is used to calculate the split-half reliability of a test among a sample of subjects' answers calculating split-half reliability in one only person's responses is of little relevance and is quite unfeasible in CTT. Yet, Drewes (2000) highlighted that reliability of a measurement can be modeled. Thereby, FMT's purpose is to calculate split-half reliability based on one's modeled response. Thus, two vectors of strategy ( s ′ → and s ″ → ) can be obtained from two halves of the original questionnaire completed by one individual the correlation between those two vectors is a first approximation of the person's response reliability. Still, conforming to its classical use, the bisection method underestimates the reliability due to the number of items taken into account by the half tests. A first solution is to calculate the exact split-half reliability. Because Cronbach's alpha is not calculable in FMT (given that every item is related to every factor) another possibility is to calculate the mean correlation between each parallel form, which is a feasible but far too laborious solution. As a remaining possibility, the reliability can be adjusted using the Spearman-Brown correction formula:

Response reliability is of great importance in interpreting test results. A high response reliability indicates that one completed the questionnaire with care, that one was able to understand the meaning of the items, and that one was stable in the manner s/he responded throughout the test. On the other hand, a low response reliability means that the person had problems in responding, consisting either of a lack of care, a lack of comprehension, or a lack of stability in responding (e.g., due to fatigue). Indeed, one of those three issues is enough to make test results completely unreliable. In addition, unreliable responses also are likely to lower response coherence, which makes them totally unusable. Thus, response reliability should always be checked before interpreting tests results.

Response Level and Variability

Though response coherence and response reliability are the main control indices for considering whether a set of test responses is valid enough to be interpreted, more information is required in order to identify what makes the results invalid or deceptive. Therefore, some additional indices are of great use in order to confirm the existence of response biases. First, two simplistic but useful indices may be proposed: response level و response variability. Neither of these is specific to FMT, and both can be easily calculated (also in CTT). Response level consists of the mean of the responses given to each item it must be calculated before recoding reverse-coded items. Consistent with information theory, response level has to be balanced in order to maximize information in other words, response level should not be too close to the extreme ends of the Likert-type scale used. Moreover, response level carries psychological meaning in self-rated scales for example, it can be used to estimate overall motivation in responses to a test of vocational interests (Gendre et al., 2012). In addition, response level can be normed in order to specifically detect acquiescence or opposition biases.

Response variability consists in response standard deviation. Also consistent with information theory, response variability has to be balanced. Null values in variability mean that the person has used the same answer thorough the questionnaire. Opposition may cause this, formally invalidating the results: Such a response pattern leads to no information. While in CTT, results are still calculable and may be wrongfully interpreted, in FMT, where the scoring is correlation-based, results are simply not calculable. Similarly, a low value in response variability is the sign of a lack of usable information, suggesting that one was reluctant to provide information about oneself. By contrast, high values in response variability are generally preferable, but can consist of extreme responding biases as well.

Response Modality and Normativity

An important issue in psychological assessment is استجابة مرغوبة اجتماعيا (Paulhus, 1991, 2002). Depending on the context and the content of the test, socially desirable responding can lead either to extreme or banal responses (i.e., dissimulating undesirable traits). Thus, two kinds of indices can be used in order to gain some insight on such phenomena, namely response modality و response normativity. Response modality refers to one's tendency to report modal answers to items. Different formulas can be proposed in order to estimate response modality. According to Capel (2009) response modality can be measured by the mean quotient between the proportion of people who gave the same answer to the item and the proportion of people who answered by the modal answer:

Capel's original formula resulted in a value that could vary from 0 to 1. Nonetheless, a preferable possibility is to use Cohen's weighted kappa to measure how much one's answers converge with each modal answer, providing a correlational index that could be transformed into the percentage of variance explained by modal responding.

A second index related to desirable responding is response normativity. Response normativity consists of the correlation between one's answers and the means of each item. This index is less relevant for measuring how often modal answers are given than response modality instead, it focuses on the global fit with mean answers. In other words, response normativity measures whether the person answered by high values where people generally do and by low values where people generally do, or whether the person did not. Furr (2008) and Leary and Allen (2011a,b), proposed conceptualizing self-description as a function of two tendencies: a normative presentation fitting the norm group, and a distinctive description that covers differences with the norm group. In these terms, response normativity is a measure of the normative part within one participant's self-description, while response modality is a measure of the distinctive part within his or her self-description (i.e., the higher the response modality is, the less distinctive one's self-presentation is).

Response modality and response normativity are highly correlated and should be interpreted together. High values in response modality imply having chosen many modal answers, which is a form of both banality and social conformity. Regarding response normativity, high values mean that one's response is highly correlated with item means in vectorial terms, this means that one's vector of strategy and peoples' mean vector of strategy have the same direction (i.e., there is only a small angle between both vectors), which can be the case even if the response modality is low. Concerning both indices, very low or even negative values in both response modality and normativity suggest a problematic response strategy. It is compatible with acceptable response coherence and response reliability, but can results from reporting reverse-scored answers by mistake according to Capel (2009), such mistakes can be found among 1𠄲% of personality questionnaires. In that case, the only solution is to ask what the person meant by answering the way that s/he did.

Response Positivity and Negativity

Finally, two functional indices are used in order to investigate socially desirable responding: response positivity و negativity. In order to calculate them, most positive and negative items according to individuals' ratings are selected from the KZ matrix in order to create two matrices respectively related to positive or negative items. Then, new vectors of strategy can be calculated, based only on the selected positive or negative items: one related to positive aspects, and another related to negative aspects. Last, response positivity corresponds to the sum of the product of the vector of strategy and the vector specific to positive contents:

In the same way, response negativity is the sum of the product of the vector of strategy and the vector specific to negative contents:

Response positivity and negativity must always be interpreted together, with an extra focus on asymmetric combinations. In particular, a high positivity and a low negativity highlight strong socially desirable response strategies such results suggest that the individual has adequate representations of normative expectations, and that s/he intends to satisfy these expectations. On the contrary, a low positivity and a high negativity can result from faking bad, or could suggest a lack of conscience of social expectations, which is also of some interest for investigation. However, large differences between both indices systematically lower the validity of the assessment (Gendre and Capel, 2013).


Sending AP Scores

After you take an AP Exam, we send your score report to the college or university that you designated in My AP. Your score report is cumulative and includes scores for all the AP Exams you have ever taken, unless you requested that one or more scores be withheld from a college or canceled. When you go online you will be able to see your entire score report and score-send history. If you wish to send additional score reports to colleges, universities, and scholarship programs you can do so online for a fee. Learn more about sending your scores to colleges and universities.


An Easy Way to Reverse Code Scale items

Before you run a Cronbach’s alpha or factor analysis on scale items, it’s generally a good idea to reverse code items that are negatively worded so that a high value indicates the same type of response on every item.

So for example let’s say you have 20 items each on a 1 to 7 scale. For most items, a 7 may indicate a positive attitude toward some issue, but for a few items, a 1 indicates a positive attitude.

I want to show you a very quick and easy way to reverse code them using a single command line. This works in any software.

Rather than specifying each individual recoded value–a 1 to 7, 2 to 6, and so on, just subtract the values from a constant one value higher than the highest value on the scale.

For example if OldVariable is reverse coded and on a 1 to 7 scale, in SPSS, do this:

COMPUTE NewVariable = 8 – OldVariable. (You can also do it in the menus in Transform–>Compute).

In SAS, do this within a data step.

Data scale
Set scale
NewVariable = 8 – OldVariable
يركض

The value from which you subtract your old variable will always be one value higher than the highest value you have. So I subtracted my old variable from 8 because I have a 1 to 7 scale. If I had a 1 to 5 scale, I would subtract my old variable from 6.

If you only have to reverse code one item, this isn’t a big deal. But I have found that data cleaning and creating new variables often is the step in data analysis that takes the longest. I use whatever shortcuts I can.


Some Suggestions for Reliability Measures

As mentioned earlier, different methods of calculating reliability may yield more conservative or liberal estimates. In addition, measures vary in their ease of calculation. Thus, practitioners may choose measures based on whether stringent criteria or ease of calculation are desirable, as well as on the type of data that are available.

Reliability measures vary in at least two ways: the size of the time window and the type of data. Larger time windows may make calculations easier than smaller ones. One of the simplest ways of calculating reliability is to count the total number of responses scored (or the total number of intervals containing responses, depending on the data collection system) by each observer throughout the observation period, to divide the smaller number by the larger number, and to then multiply by 100. This yields an overall percentage of agreement for that observation. Whole-session measures are simple to understand and to calculate, but they provide only a liberal estimate of the reliability of the data collection. For an extreme example, one observer could score 10 instances of the target response, then become distracted or fall asleep. The second observer may miss those initial 10 responses, but later record 10 other responses (while the first observer sleeps). A whole-session reliability measure for these two data sets would be 100% because both observers scored 10 responses, but those responses would have occurred at entirely different times.

Using shorter intervals within a longer observation period makes reliability calculations more stringent and improves the confidence that both observers were recording the same instance of behavior. The use of shorter, within-session intervals is sometimes called the proportional method. To calculate proportional agreement, the total observation time is broken into discrete units (intervals). For instance, a 10-min observation might be broken into 60, 10-s intervals. The records for the two observers are then compared within each 10-s interval. For example, if one observer recorded two instances of behavior in the first 10-s interval and a second observer recorded three instances of behavior in the first interval, the reliability for that interval would be 66.7% (two instances divided by three instances and multiplied by 100). Once reliability has been calculated for all intervals in the observation, the scores are averaged to obtain the mean reliability for the entire observation. Although 10-s intervals are common in research, larger intervals such as 1-min or 5-min may be more practical in everyday application.

Proportional reliability has several possible advantages over whole-session reliability. First, proportional measures are more stringent than whole-session measures. By breaking the session into smaller units, interval-by-interval calculations reduce the likelihood of obtaining good reliability when two observers record entirely different responses (as in the example given for whole-session reliability above).

Another method is the exact agreement method, for which the observational intervals are scored as an 𠇊greement” if both observers counted exactly the same number of behavior instances. If they do not agree exactly, the interval is scored as a 𠇍isagreement.” The number of agreements are then divided by the total number of intervals and converted to a percentage. This method is even more conservative than the proportional method, but it can sometimes be overly conservative. For example, when the observers are just slightly off in their timing, behavior scored in one interval for one observer and in another interval for a second observer produces two disagreement intervals even though both observers were scoring the same behavioral event.

Another method for reliability is used when partial interval or whole interval recording is in place. Partial interval refers to scoring the interval if the behavior occurs at any point in that interval. Whole interval recording refers to scoring the interval if the behavior occurs throughout the interval. Thus, there is no 𠇌ount” of behavior the interval is simply scored as “occurrence” or “nonoccurrence.” In the case of interval recording, reliability can be calculated by denoting each interval as either an agreement (both observers recorded behavior or did not record behavior) or a disagreement (one observer recorded behavior while the other did not). The total number of agreements for the session are then divided by agreements plus disagreements and multiplied by 100 to yield the mean reliability for the entire observation.

Unfortunately, interval-by-interval calculations are sometimes impractical or impossible. This is the case if the data collection system does not permit breaking the records into smaller units. For example, assume a teacher collects data on the number of times a student raises his hand throughout a class by making tally marks on a piece of paper. For some classes, a second observer (for instance, a behavioral consultant) also records instances of hand raising using tallies. In this case, interval-by-interval reliability would be difficult to calculate because the records cannot be easily broken into smaller units it is impossible to tell when the teacher recorded the first instance of hand raising and compare that to the consultant's data.

Also, interval-by-interval reliability methods sometimes inflate or deflate agreement based on whether behavior occurs at a high or low rate. Going back to the extreme example of an observer falling asleep, high agreement scores might occur due to the fact that not much behavior occurred. Similarly, with high rate behavior, one observer could essentially stop watching but continue to score lots of behavior and obtain a high score. To address these possibilities, it is possible to score agreement on the occurrence only intervals (i.e., evaluating only those intervals in which one observer or the other scored the occurrence of behavior) and to score agreement on the nonoccurrence intervals (i.e., evaluating only those intervals in which one observer or the other scored the nonoccurrence of behavior). By evaluating occurrence and nonoccurrence agreement, the reliability scores become less sensitive to rate fluctuations.