AI ਦੇ ਦੌਰ ਵਿੱਚ ਮਨੁੱਖੀ ਕਦਰਾਂ-ਕੀਮਤਾਂ ਦਾ ਕੀ ਮਤਲਬ ਹੈ
ਨਿਰਪੱਖ ਕੋਡ ਦਾ ਭਰਮ
ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (AI) ਬਾਰੇ ਚਰਚਾ ਅਕਸਰ ਤਕਨੀਕੀ ਮਾਪਦੰਡਾਂ ਅਤੇ ਪ੍ਰੋਸੈਸਿੰਗ ਪਾਵਰ ਦੇ ਦੁਆਲੇ ਘੁੰਮਦੀ ਹੈ। ਅਸੀਂ ਪੈਰਾਮੀਟਰਾਂ ਅਤੇ ਪੇਟਾਬਾਈਟਸ ਬਾਰੇ ਇੰਝ ਗੱਲ ਕਰਦੇ ਹਾਂ ਜਿਵੇਂ ਇਹੀ ਸਭ ਕੁਝ ਹੈ। ਪਰ ਇਹ ਫੋਕਸ ਇੱਕ ਹੋਰ ਜ਼ਰੂਰੀ ਸੱਚਾਈ ਨੂੰ ਲੁਕਾ ਦਿੰਦਾ ਹੈ। ਹਰ ਵੱਡਾ ਲੈਂਗੂਏਜ ਮਾਡਲ ਉਹਨਾਂ ਮਨੁੱਖੀ ਤਰਜੀਹਾਂ ਦਾ ਪ੍ਰਤੀਬਿੰਬ ਹੈ ਜਿਨ੍ਹਾਂ ਨੇ ਇਸਨੂੰ ਬਣਾਇਆ ਹੈ। ਦੁਨੀਆ ਵਿੱਚ ਕੋਈ ਵੀ ਐਲਗੋਰਿਦਮ ਨਿਰਪੱਖ ਨਹੀਂ ਹੁੰਦਾ। ਜਦੋਂ ਕੋਈ ਸਿਸਟਮ ਜਵਾਬ ਦਿੰਦਾ ਹੈ, ਤਾਂ ਉਹ ਕਿਸੇ ਨਿਰਪੱਖ ਸੱਚਾਈ ਤੋਂ ਨਹੀਂ ਆ ਰਿਹਾ ਹੁੰਦਾ। ਇਹ ਡਿਵੈਲਪਰਾਂ ਅਤੇ ਡੇਟਾ ਲੇਬਲਰਾਂ ਦੁਆਰਾ ਨਿਰਧਾਰਤ ਕੀਤੇ ਗਏ ਖਾਸ ਮੁੱਲਾਂ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ। ਮੁੱਖ ਗੱਲ ਇਹ ਹੈ ਕਿ ਅਸੀਂ ਮਸ਼ੀਨਾਂ ਨੂੰ ਸੋਚਣਾ ਨਹੀਂ ਸਿਖਾ ਰਹੇ, ਸਗੋਂ ਉਹਨਾਂ ਨੂੰ ਸਾਡੇ ਸਮਾਜਿਕ ਨਿਯਮਾਂ ਦੀ ਨਕਲ ਕਰਨਾ ਸਿਖਾ ਰਹੇ ਹਾਂ। ਤਰਕ ਤੋਂ ਨੈਤਿਕਤਾ ਵੱਲ ਇਹ ਬਦਲਾਅ ਇੰਟਰਨੈੱਟ ਦੀ ਖੋਜ ਤੋਂ ਬਾਅਦ ਕੰਪਿਊਟਿੰਗ ਵਿੱਚ ਸਭ ਤੋਂ ਵੱਡੀ ਤਬਦੀਲੀ ਹੈ। ਇਹ ਜ਼ਿੰਮੇਵਾਰੀ ਦਾ ਬੋਝ ਹਾਰਡਵੇਅਰ ਤੋਂ ਹਟਾ ਕੇ ਉਹਨਾਂ ਇਨਸਾਨਾਂ ‘ਤੇ ਪਾਉਂਦਾ ਹੈ ਜੋ ਇਹ ਤੈਅ ਕਰਦੇ ਹਨ ਕਿ ਇੱਕ ‘ਸਹੀ’ ਜਵਾਬ ਕਿਹੋ ਜਿਹਾ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ।
ਇੰਡਸਟਰੀ ਹੁਣ ਕਾਬਲੀਅਤ ਤੋਂ ਹਟ ਕੇ ਸੁਰੱਖਿਆ ਅਤੇ ਅਲਾਈਨਮੈਂਟ ਵੱਲ ਵਧ ਰਹੀ ਹੈ। ਇਹ ਸੁਣਨ ਵਿੱਚ ਤਕਨੀਕੀ ਲੱਗਦਾ ਹੈ, ਪਰ ਇਹ ਅਸਲ ਵਿੱਚ ਇੱਕ ਡੂੰਘੀ ਰਾਜਨੀਤਿਕ ਪ੍ਰਕਿਰਿਆ ਹੈ। ਜਦੋਂ ਅਸੀਂ ਕਿਸੇ ਮਾਡਲ ਨੂੰ ਮਦਦਗਾਰ, ਨੁਕਸਾਨ ਰਹਿਤ ਅਤੇ ਇਮਾਨਦਾਰ ਹੋਣ ਲਈ ਕਹਿੰਦੇ ਹਾਂ, ਤਾਂ ਅਸੀਂ ਅਜਿਹੇ ਸ਼ਬਦ ਵਰਤ ਰਹੇ ਹੁੰਦੇ ਹਾਂ ਜਿਨ੍ਹਾਂ ਦੇ ਵੱਖ-ਵੱਖ ਸੱਭਿਆਚਾਰਾਂ ਵਿੱਚ ਵੱਖੋ-ਵੱਖਰੇ ਅਰਥ ਹੁੰਦੇ ਹਨ। ਜੋ ਗੱਲ ਸੈਨ ਫਰਾਂਸਿਸਕੋ ਦੇ ਬੋਰਡਰੂਮ ਵਿੱਚ ਸਹੀ ਲੱਗਦੀ ਹੈ, ਉਹ ਜਕਾਰਤਾ ਵਿੱਚ ਅਪਮਾਨਜਨਕ ਹੋ ਸਕਦੀ ਹੈ। ਗਲੋਬਲ ਪੱਧਰ ਅਤੇ ਸਥਾਨਕ ਕਦਰਾਂ-ਕੀਮਤਾਂ ਵਿਚਕਾਰ ਇਹ ਖਿੱਚੋਤਾਣ ਹੀ ਆਧੁਨਿਕ ਟੈਕਨਾਲੋਜੀ ਦਾ ਮੁੱਖ ਸੰਘਰਸ਼ ਹੈ। ਸਾਨੂੰ AI ਨੂੰ ਇੱਕ ਆਜ਼ਾਦ ਤਾਕਤ ਵਜੋਂ ਦੇਖਣਾ ਬੰਦ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ ਅਤੇ ਇਸਨੂੰ ਮਨੁੱਖੀ ਇੱਛਾ ਦੇ ਇੱਕ ਵਿਸਤਾਰ ਵਜੋਂ ਦੇਖਣਾ ਸ਼ੁਰੂ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ।
ਮਨੁੱਖੀ ਚੋਣ ਦਾ ਮਕੈਨੀਕਲ ਸ਼ੀਸ਼ਾ
ਮਸ਼ੀਨ ਵਿੱਚ ਕਦਰਾਂ-ਕੀਮਤਾਂ ਕਿਵੇਂ ਆਉਂਦੀਆਂ ਹਨ, ਇਹ ਸਮਝਣ ਲਈ ਤੁਹਾਨੂੰ Reinforcement Learning from Human Feedback (RLHF) ਨੂੰ ਦੇਖਣਾ ਪਵੇਗਾ। ਇਹ ਉਹ ਪ੍ਰਕਿਰਿਆ ਹੈ ਜਿੱਥੇ ਹਜ਼ਾਰਾਂ ਇਨਸਾਨ ਮਾਡਲ ਦੇ ਜਵਾਬਾਂ ਨੂੰ ਰੈਂਕ ਦਿੰਦੇ ਹਨ। ਸਮੇਂ ਦੇ ਨਾਲ, ਮਾਡਲ ਇਹ ਸਿੱਖ ਲੈਂਦਾ ਹੈ ਕਿ ਕਿਹੜੇ ਪੈਟਰਨ ਮਨੁੱਖੀ ਪਸੰਦ ਨਾਲ ਮੇਲ ਖਾਂਦੇ ਹਨ। ਇਹ ਸੱਚਾਈ ਦੀ ਖੋਜ ਨਹੀਂ, ਸਗੋਂ ਮਨਜ਼ੂਰੀ ਦੀ ਖੋਜ ਹੈ। ਮਾਡਲ ਨੂੰ ਆਪਣੇ ਮੁਲਾਂਕਣ ਕਰਨ ਵਾਲਿਆਂ ਨੂੰ ਖੁਸ਼ ਕਰਨ ਲਈ ਸਿਖਲਾਈ ਦਿੱਤੀ ਜਾਂਦੀ ਹੈ। ਇਹ ਨੈਤਿਕਤਾ ਦਾ ਇੱਕ ਅਜਿਹਾ ਪਰਦਾ ਬਣਾਉਂਦਾ ਹੈ ਜੋ ਅਸਲ ਵਿੱਚ ਸਿਰਫ ਇੱਕ ਅੰਕੜਾ ਹੈ ਕਿ ਇੱਕ ਖਾਸ ਸਮੂਹ ਕੀ ਸੁਣਨਾ ਪਸੰਦ ਕਰਦਾ ਹੈ।
ਇਹ ਪ੍ਰਕਿਰਿਆ ਬਹੁਤ ਜ਼ਿਆਦਾ ਵਿਅਕਤੀਗਤਤਾ ਪੈਦਾ ਕਰਦੀ ਹੈ। ਜੇਕਰ ਜ਼ਿਆਦਾਤਰ ਲੇਬਲਰ ਇੱਕ ਖਾਸ ਡੈਮੋਗ੍ਰਾਫਿਕ ਤੋਂ ਹਨ, ਤਾਂ ਮਾਡਲ ਕੁਦਰਤੀ ਤੌਰ ‘ਤੇ ਉਸ ਸਮੂਹ ਦੀ ਭਾਸ਼ਾ ਅਤੇ ਪੱਖਪਾਤ ਨੂੰ ਅਪਣਾ ਲਵੇਗਾ। ਇਹੀ ਕਾਰਨ ਹੈ ਕਿ ਕਈ ਪ੍ਰਸਿੱਧ ਮਾਡਲਾਂ ਦੇ ਸ਼ੁਰੂਆਤੀ ਸੰਸਕਰਣ ਗੈਰ-ਪੱਛਮੀ ਸੰਦਰਭਾਂ ਵਿੱਚ ਸੰਘਰਸ਼ ਕਰਦੇ ਸਨ। ਉਹ ਖਰਾਬ ਨਹੀਂ ਸਨ, ਉਹ ਬਸ ਉਹੀ ਕਰ ਰਹੇ ਸਨ ਜੋ ਉਹਨਾਂ ਨੂੰ ਸਿਖਾਇਆ ਗਿਆ ਸੀ। ਇਹ ਉਹ ਪਰਤ ਹੈ ਜਿੱਥੇ ਨਿਰਪੱਖਤਾ ਅਤੇ ਪੱਖਪਾਤ ਵਰਗੇ ਅਮੂਰਤ ਸੰਕਲਪ ਕੋਡ ਦੀਆਂ ਠੋਸ ਲਾਈਨਾਂ ਬਣ ਜਾਂਦੇ ਹਨ।
ਜ਼ਿਆਦਾਤਰ ਲੋਕਾਂ ਨੂੰ ਇਹ ਗਲਤਫਹਿਮੀ ਹੁੰਦੀ ਹੈ ਕਿ AI ਕੋਲ ਆਪਣਾ ਨੈਤਿਕ ਕੰਪਾਸ ਹੈ। ਅਜਿਹਾ ਨਹੀਂ ਹੈ। ਇਸ ਕੋਲ ਸਿਰਫ ਇੱਕ ਰਿਵਾਰਡ ਫੰਕਸ਼ਨ ਹੈ। ਜਦੋਂ ਕੋਈ ਮਾਡਲ ਜਵਾਬ ਦੇਣ ਤੋਂ ਇਨਕਾਰ ਕਰਦਾ ਹੈ, ਤਾਂ ਇਸ ਲਈ ਨਹੀਂ ਕਿ ਉਹ ਮਹਿਸੂਸ ਕਰਦਾ ਹੈ ਕਿ ਵਿਸ਼ਾ ਗਲਤ ਹੈ, ਸਗੋਂ ਇਸ ਲਈ ਕਿਉਂਕਿ ਇਸਦੇ ਟ੍ਰੇਨਿੰਗ ਡੇਟਾ ਨੂੰ ਉਸ ਪੈਟਰਨ ਤੋਂ ਬਚਣ ਲਈ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਹੈ। ਜੇਕਰ ਅਸੀਂ ਇਹ ਮੰਨ ਲਈਏ ਕਿ ਮਸ਼ੀਨ ਨੈਤਿਕ ਹੈ, ਤਾਂ ਅਸੀਂ ਉਹਨਾਂ ਲੋਕਾਂ ਤੋਂ ਸਵਾਲ ਪੁੱਛਣਾ ਬੰਦ ਕਰ ਦਿੰਦੇ ਹਾਂ ਜੋ ਨਿਯਮ ਬਣਾਉਂਦੇ ਹਨ।
ਲੈਟੈਂਟ ਸਪੇਸ ਵਿੱਚ ਭੂ-ਰਾਜਨੀਤੀ
ਇਹਨਾਂ ਚੋਣਾਂ ਦਾ ਪ੍ਰਭਾਵ ਗਲੋਬਲ ਹੈ। ਜ਼ਿਆਦਾਤਰ ਪ੍ਰਮੁੱਖ AI ਮਾਡਲ ਮੁੱਖ ਤੌਰ ‘ਤੇ ਅੰਗਰੇਜ਼ੀ ਭਾਸ਼ਾ ਦੇ ਡੇਟਾ ‘ਤੇ ਸਿਖਲਾਈ ਪ੍ਰਾਪਤ ਕਰਦੇ ਹਨ। ਇਹ ਇੱਕ ਡਿਜੀਟਲ ਮੋਨੋਕਲਚਰ ਬਣਾਉਂਦਾ ਹੈ ਜਿੱਥੇ ਪੱਛਮੀ ਕਦਰਾਂ-ਕੀਮਤਾਂ ਡਿਫੌਲਟ ਹੁੰਦੀਆਂ ਹਨ। ਜਦੋਂ ਦੁਨੀਆ ਦੇ ਕਿਸੇ ਹੋਰ ਹਿੱਸੇ ਵਿੱਚ ਕੋਈ ਉਪਭੋਗਤਾ ਸਲਾਹ ਮੰਗਦਾ ਹੈ, ਤਾਂ ਉਹਨਾਂ ਨੂੰ ਇੱਕ ਖਾਸ ਸੱਭਿਆਚਾਰਕ ਲੈਂਸ ਰਾਹੀਂ ਫਿਲਟਰ ਕੀਤੇ ਜਵਾਬ ਮਿਲਦੇ ਹਨ। ਇਹ ਸਿਰਫ ਭਾਸ਼ਾ ਦਾ ਅਨੁਵਾਦ ਨਹੀਂ, ਸਗੋਂ ਸੱਭਿਆਚਾਰਕ ਅਨੁਵਾਦ ਦਾ ਮਾਮਲਾ ਹੈ।
ਇਸਦੇ ਜਵਾਬ ਵਿੱਚ ਫਰਾਂਸ, ਯੂਏਈ ਅਤੇ ਭਾਰਤ ਵਰਗੇ ਦੇਸ਼ ਆਪਣੇ ਖੁਦ ਦੇ AI ਮਾਡਲ ਵਿਕਸਿਤ ਕਰ ਰਹੇ ਹਨ ਤਾਂ ਜੋ ਉਹਨਾਂ ਦੀਆਂ ਸੱਭਿਆਚਾਰਕ ਕਦਰਾਂ-ਕੀਮਤਾਂ ਨੂੰ ਦਰਸਾਇਆ ਜਾ ਸਕੇ। ਉਹ ਸਮਝਦੇ ਹਨ ਕਿ ਵਿਦੇਸ਼ੀ ਮਾਡਲ ‘ਤੇ ਨਿਰਭਰ ਰਹਿਣ ਦਾ ਮਤਲਬ ਵਿਦੇਸ਼ੀ ਵਿਸ਼ਵ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਨੂੰ ਅਪਣਾਉਣਾ ਹੈ। ਜੇਕਰ ਡੇਟਾ ਵਿੱਚ ਸਿਰਫ ਇੱਕ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਹੈ, ਤਾਂ ਨਤੀਜਾ ਵਜੋਂ ਮਿਲਣ ਵਾਲੀ ਇੰਟੈਲੀਜੈਂਸ ਸੀਮਤ ਹੋਵੇਗੀ। ਵਿਭਿੰਨ ਡੇਟਾ ਸੈੱਟਾਂ ਦੀ ਮੰਗ ਸਿਰਫ ਇੱਕ ਵਿਭਿੰਨਤਾ ਪਹਿਲਕਦਮੀ ਨਹੀਂ ਹੈ, ਇਹ ਗਲੋਬਲ ਪੱਧਰ ‘ਤੇ ਸਹੀ ਅਤੇ ਪ੍ਰਸੰਗਿਕ ਹੋਣ ਲਈ ਇੱਕ ਲੋੜ ਹੈ। ਤੁਸੀਂ ਸਾਡੀ AI ਨੈਤਿਕਤਾ ਅਤੇ ਗਵਰਨੈਂਸ ਗਾਈਡ ਵਿੱਚ ਇਹਨਾਂ ਚੁਣੌਤੀਆਂ ਬਾਰੇ ਹੋਰ ਜਾਣ ਸਕਦੇ ਹੋ।
ਫੈਸਲੇ ਲੈਣ ਦੀ ਪ੍ਰਕਿਰਿਆ
ਇੱਕ ਹਾਇਰਿੰਗ ਮੈਨੇਜਰ ਸਾਰਾਹ ਦੀ ਉਦਾਹਰਣ ਲਓ। ਉਹ ਇੱਕ AI ਟੂਲ ਦੀ ਵਰਤੋਂ ਕਰਦੀ ਹੈ ਜੋ ‘ਉੱਚ ਸੰਭਾਵਨਾ’ ਵਾਲੇ ਉਮੀਦਵਾਰਾਂ ਨੂੰ ਲੱਭਣ ਲਈ ਸਿਖਲਾਈ ਪ੍ਰਾਪਤ ਹੈ। ਜੇਕਰ ਪੁਰਾਣਾ ਡੇਟਾ ਦਿਖਾਉਂਦਾ ਹੈ ਕਿ ਕੰਪਨੀ ਨੇ ਜ਼ਿਆਦਾਤਰ ਤਿੰਨ ਖਾਸ ਯੂਨੀਵਰਸਿਟੀਆਂ ਤੋਂ ਲੋਕਾਂ ਨੂੰ ਭਰਤੀ ਕੀਤਾ ਹੈ, ਤਾਂ AI ਉਹਨਾਂ ਸਕੂਲਾਂ ਨੂੰ ਤਰਜੀਹ ਦੇਵੇਗਾ। ਇਹ ‘ਨਸਲਵਾਦੀ’ ਨਹੀਂ ਹੈ, ਇਹ ਬਸ ਉਸ ਪੈਟਰਨ ਨੂੰ ਅਨੁਕੂਲ ਬਣਾ ਰਿਹਾ ਹੈ ਜਿਸਨੂੰ ਕੀਮਤੀ ਦੱਸਿਆ ਗਿਆ ਸੀ। ਸਾਰਾਹ ਨੂੰ ਸ਼ਾਇਦ ਇਹ ਅਹਿਸਾਸ ਵੀ ਨਾ ਹੋਵੇ ਕਿ ਟੂਲ ਗੈਰ-ਰਵਾਇਤੀ ਪਿਛੋਕੜ ਵਾਲੇ ਪ੍ਰਤਿਭਾਸ਼ਾਲੀ ਉਮੀਦਵਾਰਾਂ ਨੂੰ ਫਿਲਟਰ ਕਰ ਰਿਹਾ ਹੈ।
ਇਹ ਸਭ ਕੁਝ ਹਰ ਰੋਜ਼ ਹਜ਼ਾਰਾਂ ਦਫਤਰਾਂ ਵਿੱਚ ਵਾਪਰਦਾ ਹੈ। ਕ੍ਰੈਡਿਟ ਸਕੋਰਿੰਗ, ਮੈਡੀਕਲ ਟ੍ਰਾਈਏਜ ਅਤੇ ਨਿਆਂਇਕ ਸਜ਼ਾ ਵਿੱਚ ਵੀ ਇਹੀ ਤਰਕ ਲਾਗੂ ਹੁੰਦਾ ਹੈ। ਖਤਰਾ ਇਹ ਹੈ ਕਿ ਅਸੀਂ ਇਹਨਾਂ ਨੰਬਰਾਂ ਨੂੰ ਉਦੇਸ਼ਪੂਰਨ ਸੱਚਾਈ ਮੰਨਦੇ ਹਾਂ, ਨਾ ਕਿ ਵਿਅਕਤੀਗਤ ਚੋਣਾਂ। ਅਸੀਂ ਅਕਸਰ ਨੈਤਿਕ ਫੈਸਲੇ ਲੈਣ ਦਾ ਔਖਾ ਕੰਮ ਮਸ਼ੀਨ ‘ਤੇ ਛੱਡ ਦਿੰਦੇ ਹਾਂ ਕਿਉਂਕਿ ਇਹ ਤੇਜ਼ ਹੈ। ਪਰ ਮਸ਼ੀਨ ਸਿਰਫ ਸਾਡੇ ਮੌਜੂਦਾ ਪੱਖਪਾਤਾਂ ਨੂੰ ਇੱਕ ਅਜਿਹੇ ਪੈਮਾਨੇ ‘ਤੇ ਸਵੈਚਾਲਿਤ ਕਰ ਰਹੀ ਹੈ ਜਿਸਦੀ ਅਸੀਂ ਆਸਾਨੀ ਨਾਲ ਨਿਗਰਾਨੀ ਨਹੀਂ ਕਰ ਸਕਦੇ।
ਇੰਡਸਟਰੀ ਵਿੱਚ ਹਾਲ ਹੀ ਵਿੱਚ ‘ਸਟੀਅਰੇਬਿਲਟੀ’ (steerability) ਵੱਲ ਬਦਲਾਅ ਆਇਆ ਹੈ। ਕੰਪਨੀਆਂ ਹੁਣ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ AI ਦੀ ‘ਸ਼ਖਸੀਅਤ’ ਜਾਂ ‘ਕਦਰਾਂ-ਕੀਮਤਾਂ’ ‘ਤੇ ਵਧੇਰੇ ਨਿਯੰਤਰਣ ਦੇ ਰਹੀਆਂ ਹਨ। ਹਾਲਾਂਕਿ ਇਹ ਸ਼ਕਤੀਕਰਨ ਵਰਗਾ ਲੱਗਦਾ ਹੈ, ਪਰ ਇਹ ਅਸਲ ਵਿੱਚ ਜ਼ਿੰਮੇਵਾਰੀ ਉਪਭੋਗਤਾ ‘ਤੇ ਪਾ ਦਿੰਦਾ ਹੈ। ਜੇਕਰ AI ਪੱਖਪਾਤੀ ਜਵਾਬ ਦਿੰਦਾ ਹੈ, ਤਾਂ ਕੰਪਨੀ ਕਹਿ ਸਕਦੀ ਹੈ ਕਿ ਉਪਭੋਗਤਾ ਨੇ ਪੈਰਾਮੀਟਰ ਸਹੀ ਢੰਗ ਨਾਲ ਸੈੱਟ ਨਹੀਂ ਕੀਤੇ।
ਸਵੈਚਾਲਿਤ ਨੈਤਿਕਤਾ ਦੀ ਕੀਮਤ
ਸਾਨੂੰ ‘ਸੁਰੱਖਿਅਤ’ AI ਦੇ ਵਿਚਾਰ ‘ਤੇ ਸ਼ੱਕ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ। ਜੇਕਰ ਕੋਈ ਮਾਡਲ ਪੂਰੀ ਤਰ੍ਹਾਂ ਅਲਾਈਨਡ ਹੈ, ਤਾਂ ਉਹ ਕਿਸਦੀਆਂ ਕਦਰਾਂ-ਕੀਮਤਾਂ ਨਾਲ ਅਲਾਈਨਡ ਹੈ? ਅੱਜ ਦੇ ਸੁਰੱਖਿਆ ਫਿਲਟਰਾਂ ਦੀ ਇੱਕ ਲੁਕਵੀਂ ਕੀਮਤ ਹੈ। ਅਕਸਰ, ਇਹ ਫਿਲਟਰ ਵਿਕਾਸਸ਼ੀਲ ਦੇਸ਼ਾਂ ਵਿੱਚ ਘੱਟ ਤਨਖਾਹ ਵਾਲੇ ਮਜ਼ਦੂਰਾਂ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਬਣਾਏ ਜਾਂਦੇ ਹਨ। ਲੋਕਾਂ ਨੂੰ ਇੰਟਰਨੈੱਟ ‘ਤੇ ਸਭ ਤੋਂ ਭਿਆਨਕ ਸਮੱਗਰੀ ਪੜ੍ਹਨ ਲਈ ਕੁਝ ਡਾਲਰ ਦਿੱਤੇ ਜਾਂਦੇ ਹਨ ਤਾਂ ਜੋ ਮਸ਼ੀਨ ਇਸ ਤੋਂ ਬਚਣਾ ਸਿੱਖ ਸਕੇ। ਕੀ AI ਸੱਚਮੁੱਚ ‘ਨੈਤਿਕ’ ਹੈ ਜੇਕਰ ਇਸਦੀ ਸੁਰੱਖਿਆ ਸ਼ੋਸ਼ਿਤ ਮਜ਼ਦੂਰਾਂ ਦੀ ਪਿੱਠ ‘ਤੇ ਬਣੀ ਹੈ?
ਇੱਕ ਹੋਰ ਸੀਮਾ ‘ਨੈਤਿਕਤਾ ਦਾ ਭੁਲੇਖਾ’ ਹੈ। ਕਿਉਂਕਿ ਇਹ ਮਾਡਲ ਨਕਲ ਕਰਨ ਵਿੱਚ ਬਹੁਤ ਵਧੀਆ ਹਨ, ਉਹ ਨੈਤਿਕਤਾ ਬਾਰੇ ਗੱਲ ਕਰਦੇ ਸਮੇਂ ਬਹੁਤ ਯਕੀਨੀ ਲੱਗ ਸਕਦੇ ਹਨ। ਪਰ ਉਹ ਕੁਝ ਵੀ ਨਹੀਂ ਸਮਝਦੇ। ਉਹ ਸਿਰਫ ਅਗਲੇ ਟੋਕਨ ਦੀ ਭਵਿੱਖਬਾਣੀ ਕਰ ਰਹੇ ਹਨ। ਜਦੋਂ ਅਸੀਂ ਨੈਤਿਕ ਮਾਰਗਦਰਸ਼ਨ ਲਈ AI ‘ਤੇ ਭਰੋਸਾ ਕਰਦੇ ਹਾਂ, ਤਾਂ ਅਸੀਂ ਅਸਲ ਵਿੱਚ ਇੱਕ ਬਹੁਤ ਹੀ ਆਧੁਨਿਕ ਤੋਤੇ ਨਾਲ ਸਲਾਹ ਕਰ ਰਹੇ ਹੁੰਦੇ ਹਾਂ।
- ਰਾਜਨੀਤੀ ਜਾਂ ਧਰਮ ਵਰਗੇ ਵਿਸ਼ਿਆਂ ਲਈ ‘ਜ਼ਮੀਨੀ ਸੱਚਾਈ’ ਕੌਣ ਪਰਿਭਾਸ਼ਿਤ ਕਰਦਾ ਹੈ?
- ਜਦੋਂ ਕਿਸੇ ਪ੍ਰਾਈਵੇਟ ਕਾਰਪੋਰੇਸ਼ਨ ਦੀਆਂ ਕਦਰਾਂ-ਕੀਮਤਾਂ ਲੋਕਤੰਤਰੀ ਸਮਾਜ ਨਾਲ ਟਕਰਾਉਂਦੀਆਂ ਹਨ ਤਾਂ ਕੀ ਹੁੰਦਾ ਹੈ?
- ਅਸੀਂ RLHF ਦੇ ‘ਬਲੈਕ ਬਾਕਸ’ ਦਾ ਆਡਿਟ ਕਿਵੇਂ ਕਰੀਏ?
- ਕੀ ਕੋਈ ਮਸ਼ੀਨ ਕਦੇ ਸੱਚਮੁੱਚ ‘ਨਿਰਪੱਖ’ ਹੋ ਸਕਦੀ ਹੈ ਜੇਕਰ ਉਹ ਦੁਨੀਆ ਜਿਸ ‘ਤੇ ਇਸਨੂੰ ਸਿਖਲਾਈ ਦਿੱਤੀ ਗਈ ਸੀ, ਉਹ ਕੁਦਰਤੀ ਤੌਰ ‘ਤੇ ਅਨਿਆਂਪੂਰਨ ਹੈ?
ਰੁਕਾਵਟਾਂ ਦਾ ਆਰਕੀਟੈਕਚਰ
ਪਾਵਰ ਯੂਜ਼ਰਾਂ ਲਈ, AI ਦੀਆਂ ‘ਕਦਰਾਂ-ਕੀਮਤਾਂ’ ਅਕਸਰ ਸਿਸਟਮ ਪ੍ਰੋਂਪਟ ਅਤੇ API ਕੌਂਫਿਗਰੇਸ਼ਨ ਵਿੱਚ ਮਿਲਦੀਆਂ ਹਨ। ਜਦੋਂ ਤੁਸੀਂ API ਰਾਹੀਂ ਮਾਡਲ ਨਾਲ ਗੱਲਬਾਤ ਕਰਦੇ ਹੋ, ਤਾਂ ਤੁਸੀਂ ‘ਟੈਂਪਰੇਚਰ’ ਅਤੇ ‘ਟੌਪ-ਪੀ’ ਸੈਟਿੰਗਾਂ ਦੇਖ ਸਕਦੇ ਹੋ। ਇਹ ਸਿਰਫ ਤਕਨੀਕੀ ਨੋਬਸ ਨਹੀਂ ਹਨ। ਉਹ ਇਹ ਨਿਯੰਤਰਿਤ ਕਰਦੇ ਹਨ ਕਿ ਮਾਡਲ ਨੂੰ ਸਭ ਤੋਂ ਵੱਧ ਸੰਭਾਵਿਤ (ਅਤੇ ਅਕਸਰ ਸਭ ਤੋਂ ਵੱਧ ਪੱਖਪਾਤੀ) ਜਵਾਬ ਤੋਂ ਕਿੰਨਾ ਭਟਕਣ ਦੀ ਇਜਾਜ਼ਤ ਹੈ।
ਵਰਕਫਲੋ ਇੰਟੀਗ੍ਰੇਸ਼ਨ ਵਿੱਚ, ਡਿਵੈਲਪਰ ਹੁਣ ‘ਗਾਰਡਰੇਲ’ ਲੇਅਰਾਂ ਬਣਾ ਰਹੇ ਹਨ ਜੋ ਉਪਭੋਗਤਾ ਅਤੇ ਮਾਡਲ ਦੇ ਵਿਚਕਾਰ ਹੁੰਦੀਆਂ ਹਨ। ਇਹ ਲੇਅਰਾਂ ਇਨਪੁਟ ਅਤੇ ਆਉਟਪੁੱਟ ਦੀ ਜਾਂਚ ਕਰਦੀਆਂ ਹਨ। ਹਾਲਾਂਕਿ, ਇਹਨਾਂ ਗਾਰਡਰੇਲਾਂ ਦੀਆਂ ਆਪਣੀਆਂ API ਸੀਮਾਵਾਂ ਅਤੇ ਲੇਟੈਂਸੀ ਲਾਗਤਾਂ ਹਨ। ਇੱਕ ਗੁੰਝਲਦਾਰ ਸੁਰੱਖਿਆ ਸਟੈਕ ਜਵਾਬ ਨੂੰ ਕਈ ਸਕਿੰਟਾਂ ਤੱਕ ਹੌਲੀ ਕਰ ਸਕਦਾ ਹੈ। ਤਕਨੀਕੀ ਰੁਕਾਵਟਾਂ ਹੀ ਮਸ਼ੀਨ ਦੀ ਨੈਤਿਕਤਾ ਦੀਆਂ ਅਸਲ ਸੀਮਾਵਾਂ ਹਨ।
ਕੀ ਤੁਹਾਡੇ ਕੋਲ ਕੋਈ AI ਕਹਾਣੀ, ਟੂਲ, ਰੁਝਾਨ ਜਾਂ ਸਵਾਲ ਹੈ ਜੋ ਤੁਹਾਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਸਾਨੂੰ ਕਵਰ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ? ਸਾਨੂੰ ਆਪਣਾ ਲੇਖ ਦਾ ਵਿਚਾਰ ਭੇਜੋ — ਅਸੀਂ ਇਸਨੂੰ ਸੁਣਨਾ ਪਸੰਦ ਕਰਾਂਗੇ।
ਅੰਤਿਮ ਮਨੁੱਖੀ ਅਧਿਕਾਰ
ਦਿਨ ਦੇ ਅੰਤ ਵਿੱਚ, AI ਇੱਕ ਸਾਧਨ ਹੈ, ਕੋਈ ਦੇਵਤਾ ਨਹੀਂ। ਇਸ ਕੋਲ ਕਦਰਾਂ-ਕੀਮਤਾਂ ਨਹੀਂ ਹਨ; ਇਸ ਕੋਲ ਨਿਰਦੇਸ਼ ਹਨ। ਸਾਨੂੰ ਇਸ ਗੱਲ ‘ਤੇ ਭਰੋਸਾ ਕਰਨ ਦੀ ਬਜਾਏ ਕਿ ਮਸ਼ੀਨ ਕੀ ਕਹਿੰਦੀ ਹੈ, ਆਪਣੀ ਸੋਚ ਨੂੰ ਬਰਕਰਾਰ ਰੱਖਣਾ ਚਾਹੀਦਾ ਹੈ। ਨੈਤਿਕ ਨਤੀਜਿਆਂ ਲਈ ਜ਼ਿੰਮੇਵਾਰੀ ਉਹਨਾਂ ਇਨਸਾਨਾਂ ਦੀ ਹੈ ਜੋ ਇਹਨਾਂ ਸਿਸਟਮਾਂ ਨੂੰ ਡਿਜ਼ਾਈਨ ਕਰਦੇ, ਤੈਨਾਤ ਕਰਦੇ ਅਤੇ ਵਰਤਦੇ ਹਨ। ਸਾਨੂੰ ‘ਬੁਰੇ’ AI ਬਾਰੇ ਘੱਟ ਅਤੇ ਉਹਨਾਂ ਲੋਕਾਂ ਬਾਰੇ ਜ਼ਿਆਦਾ ਚਿੰਤਤ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ ਜੋ ਆਪਣੇ ਪੱਖਪਾਤ ਨੂੰ ਜਾਇਜ਼ ਠਹਿਰਾਉਣ ਲਈ ‘ਨਿਰਪੱਖ’ AI ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹਨ। ਮਸ਼ੀਨ ਸਿਰਫ ਆਪਣੇ ਮਾਲਕ ਦੇ ਇਰਾਦਿਆਂ ਜਿੰਨੀ ਹੀ ਚੰਗੀ ਹੁੰਦੀ ਹੈ।
AI ਸਾਡੇ ਜੀਵਨ ਵਿੱਚ ਵਧੇਰੇ ਏਕੀਕ੍ਰਿਤ ਹੋ ਰਿਹਾ ਹੈ, ਸਾਨੂੰ ਇਹ ਫੈਸਲਾ ਕਰਨਾ ਹੋਵੇਗਾ ਕਿ ਅਸੀਂ ਆਪਣੀ ਮਨੁੱਖਤਾ ਦੇ ਕਿਹੜੇ ਹਿੱਸਿਆਂ ਨੂੰ ਸਵੈਚਾਲਿਤ ਕਰਨਾ ਚਾਹੁੰਦੇ ਹਾਂ ਅਤੇ ਕਿਹੜਿਆਂ ਦੀ ਰੱਖਿਆ ਕਰਨੀ ਚਾਹੀਦੀ ਹੈ। ਇਹ ਸਿਰਫ ਬਿਹਤਰ ਖੋਜ ਨਤੀਜਿਆਂ ਬਾਰੇ ਨਹੀਂ ਹੈ, ਇਹ ਇਸ ਬਾਰੇ ਹੈ ਕਿ ਅਸੀਂ ਇੱਕ ਪ੍ਰਜਾਤੀ ਵਜੋਂ ਕੌਣ ਹਾਂ ਅਤੇ ਅਸੀਂ ਕਿਸ ਤਰ੍ਹਾਂ ਦੀ ਦੁਨੀਆ ਬਣਾਉਣਾ ਚਾਹੁੰਦੇ ਹਾਂ। AI ਦਾ ਦੌਰ ਮਨੁੱਖੀ ਕਦਰਾਂ-ਕੀਮਤਾਂ ਦਾ ਅੰਤ ਨਹੀਂ ਹੈ। ਇਹ ਸਾਡੇ ਇਤਿਹਾਸ ਵਿੱਚ ਇੱਕ ਨਵੇਂ, ਵਧੇਰੇ ਮੁਸ਼ਕਲ ਅਧਿਆਇ ਦੀ ਸ਼ੁਰੂਆਤ ਹੈ। ਸਾਨੂੰ ਇਸਨੂੰ ਇਰਾਦੇ ਨਾਲ ਲਿਖਣ ਲਈ ਤਿਆਰ ਰਹਿਣਾ ਚਾਹੀਦਾ ਹੈ।
ایڈیٹر کا نوٹ: ہم نے یہ سائٹ ایک کثیر لسانی AI خبروں اور گائیڈز کے مرکز کے طور پر ان لوگوں کے لیے بنائی ہے جو کمپیوٹر گیکس نہیں ہیں، لیکن پھر بھی مصنوعی ذہانت کو سمجھنا چاہتے ہیں، اسے زیادہ اعتماد کے ساتھ استعمال کرنا چاہتے ہیں، اور اس مستقبل کی پیروی کرنا چاہتے ہیں جو پہلے ہی آ رہا ہے۔
ਕੋਈ ਗਲਤੀ ਮਿਲੀ ਜਾਂ ਕੁਝ ਠੀਕ ਕਰਨ ਦੀ ਲੋੜ ਹੈ? ਸਾਨੂੰ ਦੱਸੋ।