AI Ethics 2026 ਵਿੱਚ ਕਿਉਂ ਮਹੱਤਵਪੂਰਨ ਹੈ, ਭਾਵੇਂ ਕਾਰੋਬਾਰ ਤੇਜ਼ੀ ਨਾਲ ਅੱਗੇ ਵਧ ਰਿਹਾ ਹੋਵੇ
ਟੈਕਨਾਲੋਜੀ ਦੀ ਦੁਨੀਆ ਵਿੱਚ ਅੱਜਕੱਲ੍ਹ ‘ਸਪੀਡ’ ਹੀ ਸਭ ਕੁਝ ਹੈ। ਕੰਪਨੀਆਂ ਵੱਡੇ ਲੈਂਗੂਏਜ ਮਾਡਲਾਂ ਨੂੰ ਲਾਂਚ ਕਰਨ ਦੀ ਦੌੜ ਵਿੱਚ ਹਨ ਕਿਉਂਕਿ ਉਹ ਮੁਕਾਬਲੇਬਾਜ਼ਾਂ ਤੋਂ ਪਿੱਛੇ ਰਹਿਣ ਤੋਂ ਡਰਦੀਆਂ ਹਨ। ਪਰ ਬਿਨਾਂ ਕਿਸੇ ਨੈਤਿਕ ਸੋਚ ਦੇ ਤੇਜ਼ੀ ਨਾਲ ਅੱਗੇ ਵਧਣਾ ਅਜਿਹਾ ‘ਟੈਕਨੀਕਲ ਡੈਬਟ’ ਪੈਦਾ ਕਰਦਾ ਹੈ ਜੋ ਅੰਤ ਵਿੱਚ ਪ੍ਰੋਡਕਟ ਨੂੰ ਖਰਾਬ ਕਰ ਦਿੰਦਾ ਹੈ। AI ਵਿੱਚ ਨੈਤਿਕਤਾ (Ethics) ਸਿਰਫ਼ ਫ਼ਿਲਾਸਫ਼ੀ ਦੀ ਕਲਾਸ ਲਈ ਕੋਈ ਅਮੂਰਤ ਵਿਚਾਰ ਨਹੀਂ ਹੈ, ਸਗੋਂ ਇਹ ਪ੍ਰੋਡਕਸ਼ਨ ਵਾਤਾਵਰਣ ਵਿੱਚ ਵੱਡੀਆਂ ਅਸਫਲਤਾਵਾਂ ਨੂੰ ਰੋਕਣ ਲਈ ਇੱਕ ਜ਼ਰੂਰੀ ਢਾਂਚਾ ਹੈ। ਜਦੋਂ ਕੋਈ ਮਾਡਲ ਗਲਤ ਕਾਨੂੰਨੀ ਸਲਾਹ ਦਿੰਦਾ ਹੈ ਜਾਂ ਵਪਾਰਕ ਰਾਜ਼ ਲੀਕ ਕਰਦਾ ਹੈ, ਤਾਂ ਇਹ ਇੱਕ ਨੈਤਿਕ ਅਸਫਲਤਾ ਹੈ ਜਿਸਦੀ ਸਿੱਧੀ ਵਿੱਤੀ ਕੀਮਤ ਚੁਕਾਉਣੀ ਪੈਂਦੀ ਹੈ। ਇਹ ਲੇਖ ਦੱਸਦਾ ਹੈ ਕਿ ਕਿਉਂ ਮਾਰਕੀਟ ਵਿੱਚ ਜਲਦਬਾਜ਼ੀ ਅਕਸਰ ਇਹਨਾਂ ਜੋਖਮਾਂ ਨੂੰ ਨਜ਼ਰਅੰਦਾਜ਼ ਕਰਦੀ ਹੈ ਅਤੇ ਲੰਬੇ ਸਮੇਂ ਦੇ ਵਿਕਾਸ ਲਈ ਇਹ ਰਣਨੀਤੀ ਕਿਉਂ ਟਿਕਾਊ ਨਹੀਂ ਹੈ। ਅਸੀਂ ਸਿਧਾਂਤਕ ਬਹਿਸ ਤੋਂ ਵਿਹਾਰਕ ਸੁਰੱਖਿਆ ਵੱਲ ਵਧ ਰਹੇ ਹਾਂ। ਜੇਕਰ ਤੁਹਾਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਨੈਤਿਕਤਾ ਸਿਰਫ਼ ਇੱਕ ਛੋਟੀ ਜਿਹੀ ਸਮੱਸਿਆ ਹੈ, ਤਾਂ ਤੁਸੀਂ ਅਸਲ ਗੱਲ ਸਮਝਣ ਵਿੱਚ ਗਲਤੀ ਕਰ ਰਹੇ ਹੋ। ਇਹ ਇਸ ਬਾਰੇ ਹੈ ਕਿ ਕੀ ਤੁਹਾਡਾ ਸਾਫਟਵੇਅਰ ਅਸਲ ਦੁਨੀਆ ਵਿੱਚ ਮੌਜੂਦ ਰਹਿਣ ਲਈ ਕਾਫ਼ੀ ਭਰੋਸੇਮੰਦ ਹੈ। ਮੁੱਖ ਗੱਲ ਇਹ ਹੈ: Ethical AI ਹੀ functional AI ਹੈ। ਇਸ ਤੋਂ ਘੱਟ ਕੁਝ ਵੀ ਸਿਰਫ਼ ਇੱਕ ਅਸਫਲ ਹੋਣ ਵਾਲਾ ਪ੍ਰੋਟੋਟਾਈਪ ਹੈ।
ਮਾਰਕੀਟਿੰਗ ਹਾਈਪ ਨਾਲੋਂ ਇੰਜੀਨੀਅਰਿੰਗ ਦੀ ਇਮਾਨਦਾਰੀ ਬਿਹਤਰ
AI ਨੈਤਿਕਤਾ ਨੂੰ ਅਕਸਰ ਉਹਨਾਂ ਚੀਜ਼ਾਂ ਦੀ ਸੂਚੀ ਸਮਝ ਲਿਆ ਜਾਂਦਾ ਹੈ ਜੋ ਡਿਵੈਲਪਰ ਨਹੀਂ ਕਰ ਸਕਦੇ। ਅਸਲ ਵਿੱਚ, ਇਹ ਇੰਜੀਨੀਅਰਿੰਗ ਦੇ ਉਹ ਮਿਆਰ ਹਨ ਜੋ ਇਹ ਯਕੀਨੀ ਬਣਾਉਂਦੇ ਹਨ ਕਿ ਇੱਕ ਪ੍ਰੋਡਕਟ ਸਾਰੇ ਉਪਭੋਗਤਾਵਾਂ ਲਈ ਸਹੀ ਢੰਗ ਨਾਲ ਕੰਮ ਕਰੇ। ਇਸ ਵਿੱਚ ਇਹ ਸ਼ਾਮਲ ਹੈ ਕਿ ਡੇਟਾ ਕਿਵੇਂ ਇਕੱਠਾ ਕੀਤਾ ਜਾਂਦਾ ਹੈ, ਮਾਡਲਾਂ ਨੂੰ ਕਿਵੇਂ ਟ੍ਰੇਨ ਕੀਤਾ ਜਾਂਦਾ ਹੈ, ਅਤੇ ਆਉਟਪੁੱਟ ਦੀ ਨਿਗਰਾਨੀ ਕਿਵੇਂ ਕੀਤੀ ਜਾਂਦੀ ਹੈ। ਜ਼ਿਆਦਾਤਰ ਲੋਕ ਸੋਚਦੇ ਹਨ ਕਿ ਸਮੱਸਿਆ ਸਿਰਫ਼ ਅਪਮਾਨਜਨਕ ਭਾਸ਼ਾ ਤੋਂ ਬਚਣ ਦੀ ਹੈ। ਹਾਲਾਂਕਿ ਇਹ ਮਹੱਤਵਪੂਰਨ ਹੈ, ਪਰ ਇਸਦਾ ਘੇਰਾ ਬਹੁਤ ਵੱਡਾ ਹੈ। ਇਸ ਵਿੱਚ ਇਹ ਪਾਰਦਰਸ਼ਤਾ ਸ਼ਾਮਲ ਹੈ ਕਿ ਉਪਭੋਗਤਾ ਕਦੋਂ ਇੱਕ ਮਸ਼ੀਨ ਨਾਲ ਗੱਲਬਾਤ ਕਰ ਰਿਹਾ ਹੈ। ਇਸ ਵਿੱਚ ਇੱਕ ਮਾਡਲ ਨੂੰ ਟ੍ਰੇਨ ਕਰਨ ਦੀ ਵਾਤਾਵਰਣਕ ਲਾਗਤ ਸ਼ਾਮਲ ਹੈ ਜੋ ਬਹੁਤ ਜ਼ਿਆਦਾ ਬਿਜਲੀ ਦੀ ਖਪਤ ਕਰਦਾ ਹੈ। ਇਸ ਵਿੱਚ ਉਹਨਾਂ ਰਚਨਾਕਾਰਾਂ ਦੇ ਅਧਿਕਾਰ ਵੀ ਸ਼ਾਮਲ ਹਨ ਜਿਨ੍ਹਾਂ ਦੇ ਕੰਮ ਦੀ ਵਰਤੋਂ ਮਾਡਲ ਬਣਾਉਣ ਲਈ ਉਹਨਾਂ ਦੀ ਸਹਿਮਤੀ ਤੋਂ ਬਿਨਾਂ ਕੀਤੀ ਗਈ ਸੀ।
ਇਹ ਲੋਕਾਂ ਨਾਲ ਚੰਗਾ ਵਿਵਹਾਰ ਕਰਨ ਬਾਰੇ ਨਹੀਂ ਹੈ, ਇਹ ਡੇਟਾ ਸਪਲਾਈ ਚੇਨ ਦੀ ਇਮਾਨਦਾਰੀ ਬਾਰੇ ਹੈ। ਜੇਕਰ ਨੀਂਹ ਚੋਰੀ ਕੀਤੇ ਜਾਂ ਘੱਟ ਕੁਆਲਿਟੀ ਦੇ ਡੇਟਾ ‘ਤੇ ਰੱਖੀ ਗਈ ਹੈ, ਤਾਂ ਮਾਡਲ ਅੰਤ ਵਿੱਚ ਗਲਤ ਨਤੀਜੇ ਹੀ ਦੇਵੇਗਾ। ਅਸੀਂ ਉਦਯੋਗ ਵਿੱਚ ਪ੍ਰਮਾਣਿਤ ਸੁਰੱਖਿਆ ਵੱਲ ਇੱਕ ਤਬਦੀਲੀ ਦੇਖ ਰਹੇ ਹਾਂ। ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਕੰਪਨੀਆਂ ਨੂੰ ਇਹ ਸਾਬਤ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਉਹਨਾਂ ਦੇ ਮਾਡਲ ਨੁਕਸਾਨ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਨਹੀਂ ਕਰਦੇ ਜਾਂ ਗੈਰ-ਕਾਨੂੰਨੀ ਕੰਮਾਂ ਲਈ ਨਿਰਦੇਸ਼ ਨਹੀਂ ਦਿੰਦੇ। ਇਹ ਇੱਕ ਖਿਡੌਣੇ ਅਤੇ ਇੱਕ ਪੇਸ਼ੇਵਰ ਟੂਲ ਵਿੱਚ ਫਰਕ ਹੈ। ਇੱਕ ਟੂਲ ਦੀਆਂ ਸੀਮਾਵਾਂ ਅਤੇ ਸੁਰੱਖਿਆ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਹੁੰਦੀਆਂ ਹਨ। ਇੱਕ ਖਿਡੌਣਾ ਉਦੋਂ ਤੱਕ ਜੋ ਚਾਹੇ ਕਰਦਾ ਹੈ ਜਦੋਂ ਤੱਕ ਉਹ ਟੁੱਟ ਨਹੀਂ ਜਾਂਦਾ। ਜੋ ਕੰਪਨੀਆਂ AI ਨੂੰ ਖਿਡੌਣਾ ਸਮਝਦੀਆਂ ਹਨ, ਉਹ 2026 ਵਿੱਚ ਗਲਤ ਹੋਣ ‘ਤੇ ਵੱਡੀ ਦੇਣਦਾਰੀ ਦਾ ਸਾਹਮਣਾ ਕਰਨਗੀਆਂ।
ਉਦਯੋਗ ਹੁਣ ‘ਬਲੈਕ ਬਾਕਸ’ ਮਾਡਲ ਤੋਂ ਵੀ ਦੂਰ ਜਾ ਰਿਹਾ ਹੈ। ਉਪਭੋਗਤਾ ਅਤੇ ਰੈਗੂਲੇਟਰ ਇਹ ਜਾਣਨਾ ਚਾਹੁੰਦੇ ਹਨ ਕਿ ਫੈਸਲੇ ਕਿਵੇਂ ਲਏ ਜਾਂਦੇ ਹਨ। ਜੇਕਰ ਇੱਕ AI ਮੈਡੀਕਲ ਕਲੇਮ ਨੂੰ ਰੱਦ ਕਰਦਾ ਹੈ, ਤਾਂ ਮਰੀਜ਼ ਨੂੰ ਉਸ ਫੈਸਲੇ ਦੇ ਪਿੱਛੇ ਦਾ ਤਰਕ ਜਾਣਨ ਦਾ ਅਧਿਕਾਰ ਹੈ। ਇਸ ਲਈ ਅਜਿਹੀ ਪਾਰਦਰਸ਼ਤਾ ਦੀ ਲੋੜ ਹੈ ਜੋ ਬਹੁਤ ਸਾਰੇ ਮੌਜੂਦਾ ਮਾਡਲਾਂ ਵਿੱਚ ਨਹੀਂ ਹੈ। ਸਿਸਟਮ ਵਿੱਚ ਪਹਿਲੇ ਦਿਨ ਤੋਂ ਹੀ ਇਹ ਪਾਰਦਰਸ਼ਤਾ ਬਣਾਉਣਾ ਇੱਕ ਨੈਤਿਕ ਚੋਣ ਹੈ ਜੋ ਇੱਕ ਕਾਨੂੰਨੀ ਸੁਰੱਖਿਆ ਵਜੋਂ ਵੀ ਕੰਮ ਕਰਦੀ ਹੈ। ਇਹ ਕੰਪਨੀ ਨੂੰ ਆਡਿਟ ਦੌਰਾਨ ਆਪਣੀ ਖੁਦ ਦੀ ਟੈਕਨਾਲੋਜੀ ਦੀ ਵਿਆਖਿਆ ਕਰਨ ਵਿੱਚ ਅਸਮਰੱਥ ਹੋਣ ਤੋਂ ਬਚਾਉਂਦਾ ਹੈ।
ਵੰਡੇ ਹੋਏ ਨਿਯਮਾਂ ਦਾ ਗਲੋਬਲ ਰਗੜ
ਦੁਨੀਆ ਇਸ ਸਮੇਂ ਵੱਖ-ਵੱਖ ਰੈਗੂਲੇਟਰੀ ਕੈਂਪਾਂ ਵਿੱਚ ਵੰਡੀ ਹੋਈ ਹੈ। ਯੂਰਪੀਅਨ ਯੂਨੀਅਨ ਨੇ EU AI Act ਦੇ ਨਾਲ ਇੱਕ ਸਖ਼ਤ ਰੁਖ ਅਪਣਾਇਆ ਹੈ। ਇਹ ਕਾਨੂੰਨ AI ਸਿਸਟਮਾਂ ਨੂੰ ਜੋਖਮ ਦੇ ਪੱਧਰ ਅਨੁਸਾਰ ਸ਼੍ਰੇਣੀਬੱਧ ਕਰਦਾ ਹੈ ਅਤੇ ਉੱਚ-ਜੋਖਮ ਵਾਲੀਆਂ ਐਪਲੀਕੇਸ਼ਨਾਂ ‘ਤੇ ਸਖ਼ਤ ਲੋੜਾਂ ਲਾਗੂ ਕਰਦਾ ਹੈ। ਇਸ ਦੌਰਾਨ, ਸੰਯੁਕਤ ਰਾਜ ਅਮਰੀਕਾ ਸਵੈ-ਇੱਛਤ ਵਚਨਬੱਧਤਾਵਾਂ ਅਤੇ ਮੌਜੂਦਾ ਖਪਤਕਾਰ ਸੁਰੱਖਿਆ ਕਾਨੂੰਨਾਂ ‘ਤੇ ਵਧੇਰੇ ਨਿਰਭਰ ਕਰਦਾ ਹੈ। ਇਹ ਸਰਹੱਦਾਂ ਦੇ ਪਾਰ ਕੰਮ ਕਰਨ ਵਾਲੀ ਕਿਸੇ ਵੀ ਕੰਪਨੀ ਲਈ ਇੱਕ ਗੁੰਝਲਦਾਰ ਵਾਤਾਵਰਣ ਬਣਾਉਂਦਾ ਹੈ। ਜੇਕਰ ਤੁਸੀਂ ਕੋਈ ਅਜਿਹਾ ਪ੍ਰੋਡਕਟ ਬਣਾਉਂਦੇ ਹੋ ਜੋ ਸੈਨ ਫਰਾਂਸਿਸਕੋ ਵਿੱਚ ਕੰਮ ਕਰਦਾ ਹੈ ਪਰ ਪੈਰਿਸ ਵਿੱਚ ਗੈਰ-ਕਾਨੂੰਨੀ ਹੈ, ਤਾਂ ਤੁਹਾਨੂੰ ਇੱਕ ਵੱਡੀ ਵਪਾਰਕ ਸਮੱਸਿਆ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪਵੇਗਾ। ਗਲੋਬਲ ਭਰੋਸਾ ਵੀ ਦਾਅ ‘ਤੇ ਹੈ ਕਿਉਂਕਿ ਉਪਭੋਗਤਾ ਇਸ ਗੱਲ ਤੋਂ ਵੱਧ ਜਾਣੂ ਹੋ ਰਹੇ ਹਨ ਕਿ ਉਹਨਾਂ ਦੇ ਡੇਟਾ ਦੀ ਵਰਤੋਂ ਕਿਵੇਂ ਕੀਤੀ ਜਾਂਦੀ ਹੈ।
ਜੇਕਰ ਕੋਈ ਬ੍ਰਾਂਡ ਗੋਪਨੀਯਤਾ (privacy) ਲਈ ਆਪਣੀ ਸਾਖ ਗੁਆ ਦਿੰਦਾ ਹੈ, ਤਾਂ ਉਹ ਆਪਣੇ ਗਾਹਕਾਂ ਨੂੰ ਵੀ ਗੁਆ ਦਿੰਦਾ ਹੈ। ਇੱਥੇ ਡਿਜੀਟਲ ਪਾੜੇ ਦਾ ਮੁੱਦਾ ਵੀ ਹੈ। ਜੇਕਰ AI ਨੈਤਿਕਤਾ ਸਿਰਫ਼ ਪੱਛਮੀ ਕਦਰਾਂ-ਕੀਮਤਾਂ ‘ਤੇ ਕੇਂਦ੍ਰਿਤ ਹੈ, ਤਾਂ ਇਹ ਗਲੋਬਲ ਸਾਊਥ ਦੀਆਂ ਲੋੜਾਂ ਨੂੰ ਨਜ਼ਰਅੰਦਾਜ਼ ਕਰਦੀ ਹੈ। ਇਹ ਡਿਜੀਟਲ ਸ਼ੋਸ਼ਣ ਦਾ ਇੱਕ ਨਵਾਂ ਰੂਪ ਪੈਦਾ ਕਰ ਸਕਦਾ ਹੈ ਜਿੱਥੇ ਇੱਕ ਜਗ੍ਹਾ ਤੋਂ ਡੇਟਾ ਲੈ ਕੇ ਦੂਜੀ ਜਗ੍ਹਾ ਦੌਲਤ ਬਣਾਈ ਜਾਂਦੀ ਹੈ ਬਿਨਾਂ ਕਿਸੇ ਲਾਭ ਦੇ। ਗਲੋਬਲ ਪ੍ਰਭਾਵ ਇੱਕ ਅਜਿਹਾ ਮਿਆਰ ਨਿਰਧਾਰਤ ਕਰਨ ਬਾਰੇ ਹੈ ਜੋ ਸਾਰਿਆਂ ਲਈ ਕੰਮ ਕਰੇ, ਨਾ ਕਿ ਸਿਰਫ਼ ਉਹਨਾਂ ਲੋਕਾਂ ਲਈ ਜੋ ਸਿਲੀਕਾਨ ਵੈਲੀ ਵਿੱਚ ਕੋਡ ਲਿਖ ਰਹੇ ਹਨ। ਸਾਨੂੰ ਇਹ ਦੇਖਣ ਦੀ ਲੋੜ ਹੈ ਕਿ ਇਹ ਸਿਸਟਮ ਵਿਕਾਸਸ਼ੀਲ ਦੇਸ਼ਾਂ ਵਿੱਚ ਲੇਬਰ ਮਾਰਕੀਟ ਨੂੰ ਕਿਵੇਂ ਪ੍ਰਭਾਵਿਤ ਕਰਦੇ ਹਨ ਜਿੱਥੇ ਜ਼ਿਆਦਾਤਰ ਡੇਟਾ ਲੇਬਲਿੰਗ ਹੁੰਦੀ ਹੈ।
ਟੈਕ ਸੈਕਟਰ ਵਿੱਚ ਭਰੋਸਾ ਇੱਕ ਨਾਜ਼ੁਕ ਸੰਪਤੀ ਹੈ। ਇੱਕ ਵਾਰ ਜਦੋਂ ਉਪਭੋਗਤਾ ਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਇੱਕ AI ਉਹਨਾਂ ਦੇ ਵਿਰੁੱਧ ਪੱਖਪਾਤੀ ਹੈ ਜਾਂ ਉਹਨਾਂ ਦੀ ਜਾਸੂਸੀ ਕਰ ਰਿਹਾ ਹੈ, ਤਾਂ ਉਹ ਵਿਕਲਪ ਲੱਭਣਗੇ। ਇਹੀ ਕਾਰਨ ਹੈ ਕਿ NIST AI Risk Management Framework ਇੰਨਾ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਬਣ ਗਿਆ ਹੈ। ਇਹ ਉਹਨਾਂ ਕੰਪਨੀਆਂ ਲਈ ਇੱਕ ਰੋਡਮੈਪ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ ਜੋ ਭਰੋਸਾ ਬਣਾਉਣਾ ਚਾਹੁੰਦੀਆਂ ਹਨ। ਇਹ ਸਿਰਫ਼ ਕਾਨੂੰਨ ਦੀ ਪਾਲਣਾ ਕਰਨ ਬਾਰੇ ਨਹੀਂ ਹੈ। ਇਹ ਕਾਨੂੰਨ ਤੋਂ ਅੱਗੇ ਵਧਣ ਬਾਰੇ ਹੈ ਤਾਂ ਜੋ ਇਹ ਯਕੀਨੀ ਬਣਾਇਆ ਜਾ ਸਕੇ ਕਿ ਪ੍ਰੋਡਕਟ ਇੱਕ ਸ਼ੱਕੀ ਮਾਰਕੀਟ ਵਿੱਚ ਵੀ ਕਾਇਮ ਰਹੇ। ਗਲੋਬਲ ਗੱਲਬਾਤ ਹੁਣ ਇਸ ਤੋਂ ਬਦਲ ਰਹੀ ਹੈ ਕਿ ਅਸੀਂ ਕੀ ਬਣਾ ਸਕਦੇ ਹਾਂ, ਇਸ ਵੱਲ ਕਿ ਸਾਨੂੰ ਕੀ ਬਣਾਉਣਾ ਚਾਹੀਦਾ ਹੈ।
ਜਦੋਂ ਮਾਡਲ ਅਸਲ ਦੁਨੀਆ ਨਾਲ ਮਿਲਦਾ ਹੈ
ਕਲਪਨਾ ਕਰੋ ਕਿ ਸਾਰਾਹ ਨਾਮ ਦੀ ਇੱਕ ਡਿਵੈਲਪਰ ਇੱਕ ਫਿਨਟੈਕ ਸਟਾਰਟਅੱਪ ਲਈ ਕੰਮ ਕਰਦੀ ਹੈ। ਉਸਦੀ ਟੀਮ ਛੋਟੇ ਕਾਰੋਬਾਰੀ ਕਰਜ਼ਿਆਂ ਨੂੰ ਮਨਜ਼ੂਰੀ ਦੇਣ ਲਈ ਇੱਕ AI ਏਜੰਟ ਬਣਾ ਰਹੀ ਹੈ। ਬੋਰਡ ਦਾ ਦਬਾਅ ਬਹੁਤ ਜ਼ਿਆਦਾ ਹੈ। ਉਹ ਮੁਕਾਬਲੇਬਾਜ਼ ਨੂੰ ਹਰਾਉਣ ਲਈ ਅਗਲੇ ਮਹੀਨੇ ਤੱਕ ਫੀਚਰ ਲਾਈਵ ਚਾਹੁੰਦੇ ਹਨ। ਸਾਰਾਹ ਦੇਖਦੀ ਹੈ ਕਿ ਮਾਡਲ ਲਗਾਤਾਰ ਖਾਸ ਜ਼ਿਪ ਕੋਡਾਂ ਵਿੱਚ ਕਾਰੋਬਾਰਾਂ ਨੂੰ ਕਰਜ਼ਾ ਦੇਣ ਤੋਂ ਇਨਕਾਰ ਕਰਦਾ ਹੈ, ਭਾਵੇਂ ਉਹਨਾਂ ਦੀ ਵਿੱਤੀ ਸਥਿਤੀ ਮਜ਼ਬੂਤ ਹੋਵੇ। ਇਹ ਇੱਕ ਕਲਾਸਿਕ ਪੱਖਪਾਤ (bias) ਦੀ ਸਮੱਸਿਆ ਹੈ। ਜੇਕਰ ਸਾਰਾਹ ਡੈੱਡਲਾਈਨ ਪੂਰੀ ਕਰਨ ਲਈ ਇਸਨੂੰ ਨਜ਼ਰਅੰਦਾਜ਼ ਕਰਦੀ ਹੈ, ਤਾਂ ਕੰਪਨੀ ਨੂੰ ਬਾਅਦ ਵਿੱਚ ਇੱਕ ਵੱਡੇ ਮੁਕੱਦਮੇ ਅਤੇ PR ਆਫ਼ਤ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪਵੇਗਾ। ਜੇਕਰ ਉਹ ਇਸਨੂੰ ਠੀਕ ਕਰਨ ਲਈ ਰੁਕਦੀ ਹੈ, ਤਾਂ ਉਹ ਲਾਂਚ ਵਿੰਡੋ ਗੁਆ ਦਿੰਦੀ ਹੈ। ਇੱਥੇ ਨੈਤਿਕਤਾ ਇੱਕ ਕਾਰਪੋਰੇਟ ਮਿਸ਼ਨ ਸਟੇਟਮੈਂਟ ਨਾਲੋਂ ਰੋਜ਼ਾਨਾ ਦੀ ਚੋਣ ਬਣ ਜਾਂਦੀ ਹੈ।
ਇੱਕ AI ਪੇਸ਼ੇਵਰ ਦਾ ਜੀਵਨ ਅਜਿਹੇ ਸਮਝੌਤਿਆਂ ਨਾਲ ਭਰਿਆ ਹੁੰਦਾ ਹੈ। ਤੁਸੀਂ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਟ੍ਰੇਨਿੰਗ ਸੈੱਟਾਂ ਦੀ ਸਮੀਖਿਆ ਕਰਨ ਵਿੱਚ ਘੰਟੇ ਬਿਤਾਉਂਦੇ ਹੋ ਕਿ ਉਹ ਅਸਲ ਦੁਨੀਆ ਨੂੰ ਦਰਸਾਉਂਦੇ ਹਨ। ਤੁਸੀਂ ਉਹਨਾਂ ਐਜ ਕੇਸਾਂ ਦੀ ਜਾਂਚ ਕਰਦੇ ਹੋ ਜਿੱਥੇ AI ਖਤਰਨਾਕ ਵਿੱਤੀ ਸਲਾਹ ਦੇ ਸਕਦਾ ਹੈ। ਤੁਹਾਨੂੰ ਸਟੇਕਹੋਲਡਰਾਂ ਨੂੰ ਇਹ ਵੀ ਸਮਝਾਉਣਾ ਪੈਂਦਾ ਹੈ ਕਿ ਮਾਡਲ ਸਿਰਫ਼ ਇੱਕ ਬਲੈਕ ਬਾਕਸ ਕਿਉਂ ਨਹੀਂ ਹੋ ਸਕਦਾ। ਲੋਕਾਂ ਨੂੰ ਇਹ ਜਾਣਨ ਦੀ ਲੋੜ ਹੈ ਕਿ ਉਹਨਾਂ ਨੂੰ ਕਰਜ਼ੇ ਲਈ ਕਿਉਂ ਰੱਦ ਕੀਤਾ ਗਿਆ ਸੀ। ਉਹਨਾਂ ਕੋਲ ਬਹੁਤ ਸਾਰੇ ਨਵੇਂ ਕਾਨੂੰਨਾਂ ਦੇ ਤਹਿਤ ਸਪੱਸ਼ਟੀਕਰਨ ਦਾ ਅਧਿਕਾਰ ਹੈ। ਇਹ ਸਿਰਫ਼ ਨਿਰਪੱਖਤਾ ਬਾਰੇ ਨਹੀਂ ਹੈ। ਇਹ ਪਾਲਣਾ (compliance) ਬਾਰੇ ਹੈ। ਸਰਕਾਰਾਂ ਸਵੈਚਲਿਤ ਫੈਸਲੇ ਲੈਣ ਵਾਲੇ ਸਿਸਟਮਾਂ ਦੀ ਵਰਤੋਂ ਕਰਨ ਵਾਲੀ ਹਰ ਕੰਪਨੀ ਤੋਂ ਇਸ ਪੱਧਰ ਦੀ ਪਾਰਦਰਸ਼ਤਾ ਦੀ ਮੰਗ ਕਰਨ ਲੱਗੀਆਂ ਹਨ।
ਸਾਰਾਹ ਅੰਤ ਵਿੱਚ ਮਾਡਲ ਨੂੰ ਵਧੇਰੇ ਵਿਭਿੰਨ ਡੇਟਾਸੈਟ ‘ਤੇ ਦੁਬਾਰਾ ਟ੍ਰੇਨ ਕਰਨ ਲਈ ਲਾਂਚ ਨੂੰ ਦੇਰੀ ਕਰਨ ਦਾ ਫੈਸਲਾ ਕਰਦੀ ਹੈ। ਉਹ ਜਾਣਦੀ ਹੈ ਕਿ ਇੱਕ ਪੱਖਪਾਤੀ ਲਾਂਚ ਲੰਬੇ ਸਮੇਂ ਵਿੱਚ ਵਧੇਰੇ ਮਹਿੰਗਾ ਪਵੇਗਾ। ਕੰਪਨੀ ਨੂੰ ਦੇਰੀ ਲਈ ਕੁਝ ਨਕਾਰਾਤਮਕ ਪ੍ਰੈਸ ਮਿਲੀ, ਪਰ ਉਹ ਇੱਕ ਅਜਿਹੀ ਤਬਾਹੀ ਤੋਂ ਬਚ ਗਏ ਜੋ ਕਾਰੋਬਾਰ ਨੂੰ ਖਤਮ ਕਰ ਸਕਦੀ ਸੀ। ਇਹ ਦ੍ਰਿਸ਼ ਹੈਲਥਕੇਅਰ ਤੋਂ ਲੈ ਕੇ ਹਾਇਰਿੰਗ ਤੱਕ ਹਰ ਉਦਯੋਗ ਵਿੱਚ ਵਾਪਰਦਾ ਹੈ। ਜਦੋਂ ਤੁਸੀਂ ਰੈਜ਼ਿਊਮੇ ਫਿਲਟਰ ਕਰਨ ਲਈ AI ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹੋ, ਤਾਂ ਤੁਸੀਂ ਇੱਕ ਨੈਤਿਕ ਚੋਣ ਕਰ ਰਹੇ ਹੁੰਦੇ ਹੋ ਕਿ ਨੌਕਰੀ ਕਿਸ ਨੂੰ ਮਿਲੇਗੀ। ਜਦੋਂ ਤੁਸੀਂ ਇਸਦੀ ਵਰਤੋਂ ਕਿਸੇ ਬਿਮਾਰੀ ਦਾ ਨਿਦਾਨ ਕਰਨ ਲਈ ਕਰਦੇ ਹੋ, ਤਾਂ ਤੁਸੀਂ ਇੱਕ ਚੋਣ ਕਰ ਰਹੇ ਹੁੰਦੇ ਹੋ ਕਿ ਇਲਾਜ ਕਿਸ ਨੂੰ ਮਿਲੇਗਾ। ਇਹ ਉਹ ਵਿਹਾਰਕ ਦਾਅ ਹਨ ਜੋ ਉਦਯੋਗ ਨੂੰ ਹਕੀਕਤ ਨਾਲ ਜੋੜੀ ਰੱਖਦੇ ਹਨ।
BotNews.today ਸਮੱਗਰੀ ਦੀ ਖੋਜ, ਲਿਖਣ, ਸੰਪਾਦਨ ਅਤੇ ਅਨੁਵਾਦ ਕਰਨ ਲਈ AI ਟੂਲਸ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ। ਸਾਡੀ ਟੀਮ ਜਾਣਕਾਰੀ ਨੂੰ ਉਪਯੋਗੀ, ਸਪਸ਼ਟ ਅਤੇ ਭਰੋਸੇਮੰਦ ਰੱਖਣ ਲਈ ਪ੍ਰਕਿਰਿਆ ਦੀ ਸਮੀਖਿਆ ਅਤੇ ਨਿਗਰਾਨੀ ਕਰਦੀ ਹੈ।
ਬਹੁਤ ਸਾਰੇ ਲੋਕ ਜੋ ਇਸ ਵਿਸ਼ੇ ‘ਤੇ ਉਲਝਣ ਵਿੱਚ ਹਨ, ਉਹ ਇਹ ਸੋਚਦੇ ਹਨ ਕਿ ਨੈਤਿਕਤਾ ਇਨੋਵੇਸ਼ਨ ਨੂੰ ਹੌਲੀ ਕਰ ਦਿੰਦੀ ਹੈ। ਅਸਲ ਵਿੱਚ, ਇਹ ਉਸ ਕਿਸਮ ਦੀ ਇਨੋਵੇਸ਼ਨ ਨੂੰ ਰੋਕਦੀ ਹੈ ਜੋ ਮੁਕੱਦਮਿਆਂ ਵੱਲ ਲੈ ਜਾਂਦੀ ਹੈ। ਇਸਨੂੰ ਕਾਰ ਦੇ ਬ੍ਰੇਕਾਂ ਵਾਂਗ ਸੋਚੋ। ਬ੍ਰੇਕਾਂ ਤੁਹਾਨੂੰ ਤੇਜ਼ ਗੱਡੀ ਚਲਾਉਣ ਦੀ ਇਜਾਜ਼ਤ ਦਿੰਦੀਆਂ ਹਨ ਕਿਉਂਕਿ ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ ਕਿ ਜਦੋਂ ਲੋੜ ਹੋਵੇ ਤਾਂ ਤੁਸੀਂ ਰੁਕ ਸਕਦੇ ਹੋ। ਉਹਨਾਂ ਤੋਂ ਬਿਨਾਂ, ਤੁਹਾਨੂੰ ਹੌਲੀ ਚੱਲਣਾ ਪਵੇਗਾ ਜਾਂ ਘਾਤਕ ਹਾਦਸੇ ਦਾ ਖਤਰਾ ਮੁੱਲ ਲੈਣਾ ਪਵੇਗਾ। AI ਨੈਤਿਕਤਾ ਉਹ ਬ੍ਰੇਕ ਪ੍ਰਦਾਨ ਕਰਦੀ ਹੈ ਜੋ ਕੰਪਨੀਆਂ ਨੂੰ ਆਪਣੀ ਸਾਖ ਨੂੰ ਨੁਕਸਾਨ ਪਹੁੰਚਾਏ ਬਿਨਾਂ ਤੇਜ਼ ਰਫ਼ਤਾਰ ਨਾਲ ਅੱਗੇ ਵਧਣ ਦੀ ਇਜਾਜ਼ਤ ਦਿੰਦੀ ਹੈ। ਸਾਨੂੰ ਇਸ ਗਲਤਫਹਿਮੀ ਨੂੰ ਦੂਰ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਸੁਰੱਖਿਆ ਅਤੇ ਮੁਨਾਫਾ ਇੱਕ ਦੂਜੇ ਦੇ ਵਿਰੋਧੀ ਹਨ। AI ਯੁੱਗ ਵਿੱਚ, ਇਹ ਇੱਕੋ ਸਿੱਕੇ ਦੇ ਦੋ ਪਾਸੇ ਹਨ।
ਕੀ ਤੁਹਾਡੇ ਕੋਲ ਕੋਈ AI ਕਹਾਣੀ, ਟੂਲ, ਰੁਝਾਨ ਜਾਂ ਸਵਾਲ ਹੈ ਜੋ ਤੁਹਾਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਸਾਨੂੰ ਕਵਰ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ? ਸਾਨੂੰ ਆਪਣਾ ਲੇਖ ਦਾ ਵਿਚਾਰ ਭੇਜੋ — ਅਸੀਂ ਇਸਨੂੰ ਸੁਣਨਾ ਪਸੰਦ ਕਰਾਂਗੇ।
ਸਖ਼ਤ ਸੱਚਾਈਆਂ ਅਤੇ ਲੁਕੇ ਹੋਏ ਸਮਝੌਤੇ
AI ਵਿਕਾਸ ਦੀ ਮੌਜੂਦਾ ਗਤੀ ਤੋਂ ਅਸਲ ਵਿੱਚ ਕਿਸਨੂੰ ਫਾਇਦਾ ਹੁੰਦਾ ਹੈ? ਜੇਕਰ ਅਸੀਂ ਸੁਰੱਖਿਆ ਨੂੰ ਤਰਜੀਹ ਦਿੰਦੇ ਹਾਂ, ਤਾਂ ਕੀ ਅਸੀਂ ਉਹਨਾਂ ਮਾੜੇ ਅਦਾਕਾਰਾਂ ਨੂੰ ਫਾਇਦਾ ਦਿੰਦੇ ਹਾਂ ਜੋ ਨੈਤਿਕਤਾ ਦੀ ਪਰਵਾਹ ਨਹੀਂ ਕਰਦੇ? ਇਹ ਉਹ ਸਵਾਲ ਹਨ ਜੋ ਸਾਨੂੰ ਪੁੱਛਣੇ ਚਾਹੀਦੇ ਹਨ। ਕੀ ਇੱਕ ਸੱਚਮੁੱਚ ਨਿਰਪੱਖ ਮਾਡਲ ਹੋਣਾ ਸੰਭਵ ਹੈ ਜਦੋਂ ਉਹ ਇੰਟਰਨੈਟ ਜਿਸ ‘ਤੇ ਇਸਨੂੰ ਟ੍ਰੇਨ ਕੀਤਾ ਗਿਆ ਸੀ, ਮਨੁੱਖੀ ਪੱਖਪਾਤ ਨਾਲ ਭਰਿਆ ਹੋਇਆ ਹੈ? ਸਾਨੂੰ ਇਹ ਪੁੱਛਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਕੀ AI ਦੀ ਸਹੂਲਤ ਗੋਪਨੀਯਤਾ ਦੇ ਨੁਕਸਾਨ ਦੇ ਬਰਾਬਰ ਹੈ। ਜੇਕਰ ਕਿਸੇ ਮਾਡਲ ਨੂੰ ਮਦਦਗਾਰ ਬਣਨ ਲਈ ਤੁਹਾਡੇ ਬਾਰੇ ਸਭ ਕੁਝ ਜਾਣਨ ਦੀ ਲੋੜ ਹੈ, ਤਾਂ ਕੀ ਇਹ ਕਦੇ ਵੀ ਸੱਚਮੁੱਚ ਸੁਰੱਖਿਅਤ ਹੋ ਸਕਦਾ ਹੈ? ਜ਼ਿੰਮੇਵਾਰੀ ਦਾ ਸਵਾਲ ਵੀ ਹੈ। ਜੇਕਰ ਕੋਈ AI ਕੋਈ ਅਜਿਹੀ ਗਲਤੀ ਕਰਦਾ ਹੈ ਜਿਸ ਨਾਲ ਜਾਨ ਜਾਂਦੀ ਹੈ, ਤਾਂ ਅਦਾਲਤ ਵਿੱਚ ਕੌਣ ਜਾਵੇਗਾ? ਕੀ ਇਹ ਡਿਵੈਲਪਰ ਹੈ, CEO ਹੈ, ਜਾਂ ਉਹ ਵਿਅਕਤੀ ਜਿਸਨੇ ਬਟਨ ਦਬਾਇਆ ਸੀ?
ਅਸੀਂ ਅਕਸਰ AI ਅਲਾਈਨਮੈਂਟ ਬਾਰੇ ਇੱਕ ਤਕਨੀਕੀ ਸਮੱਸਿਆ ਵਜੋਂ ਗੱਲ ਕਰਦੇ ਹਾਂ। ਪਰ ਅਸੀਂ ਇਸਨੂੰ ਕਿਸ ਨਾਲ ਅਲਾਈਨ ਕਰ ਰਹੇ ਹਾਂ? ਕਿਸ ਦੀਆਂ ਕਦਰਾਂ-ਕੀਮਤਾਂ ਡਿਫਾਲਟ ਹੋਣਗੀਆਂ? ਜੇਕਰ ਇੱਕ ਦੇਸ਼ ਦੀ ਕੰਪਨੀ ਦੀਆਂ ਕਦਰਾਂ-ਕੀਮਤਾਂ ਦੂਜੇ ਦੇਸ਼ ਦੀ ਕੰਪਨੀ ਨਾਲੋਂ ਵੱਖਰੀਆਂ ਹਨ, ਤਾਂ ਗਲੋਬਲ ਮਾਰਕੀਟ ਵਿੱਚ ਕਿਸਦੀ ਨੈਤਿਕਤਾ ਜਿੱਤੇਗੀ? ਇਹ ਸਿਰਫ਼ ਦਾਰਸ਼ਨਿਕ ਬੁਝਾਰਤਾਂ ਨਹੀਂ ਹਨ। ਇਹ ਸਿਸਟਮ ਵਿੱਚ ਉਹ ਬੱਗ ਹਨ ਜੋ ਅਸੀਂ ਅਜੇ ਤੱਕ ਠੀਕ ਨਹੀਂ ਕੀਤੇ ਹਨ। ਸਾਨੂੰ ਕਿਸੇ ਵੀ ਅਜਿਹੀ ਕੰਪਨੀ ਪ੍ਰਤੀ ਸ਼ੱਕੀ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ ਜੋ ਦਾਅਵਾ ਕਰਦੀ ਹੈ ਕਿ ਉਹਨਾਂ ਦਾ AI ਪੂਰੀ ਤਰ੍ਹਾਂ ਸੁਰੱਖਿਅਤ ਹੈ। ਸੁਰੱਖਿਆ ਇੱਕ ਪ੍ਰਕਿਰਿਆ ਹੈ, ਮੰਜ਼ਿਲ ਨਹੀਂ। ਸਾਨੂੰ ਇਹਨਾਂ ਮਾਡਲਾਂ ਦੀਆਂ ਲੁਕੀਆਂ ਹੋਈਆਂ ਲਾਗਤਾਂ ਬਾਰੇ ਪੁੱਛਣਾ ਚਾਹੀਦਾ ਹੈ। ਇਸ ਵਿੱਚ ਡੇਟਾ ਨੂੰ ਸਾਫ਼ ਕਰਨ ਲਈ ਲੋੜੀਂਦੀ ਮਨੁੱਖੀ ਮਿਹਨਤ ਅਤੇ ਡੇਟਾ ਸੈਂਟਰਾਂ ਦੀ ਭਾਰੀ ਪਾਣੀ ਦੀ ਖਪਤ ਸ਼ਾਮਲ ਹੈ।
ਜੇਕਰ ਅਸੀਂ ਹੁਣ ਇਹ ਸਵਾਲ ਨਹੀਂ ਪੁੱਛਦੇ, ਤਾਂ ਨਤੀਜੇ ਅਟੱਲ ਹੋਣ ‘ਤੇ ਸਾਨੂੰ ਉਹਨਾਂ ਦਾ ਜਵਾਬ ਦੇਣ ਲਈ ਮਜਬੂਰ ਹੋਣਾ ਪਵੇਗਾ। ਮੌਜੂਦਾ ਰੁਝਾਨ ਪਹਿਲਾਂ ਭੇਜਣ ਅਤੇ ਬਾਅਦ ਵਿੱਚ ਸਵਾਲ ਪੁੱਛਣ ਦਾ ਹੈ। ਇਹ ਪਹੁੰਚ ਅਸਫਲ ਹੋ ਰਹੀ ਹੈ। ਅਸੀਂ ਇਸਨੂੰ ਡੀਪਫੇਕ ਦੇ ਵਾਧੇ ਅਤੇ ਸਵੈਚਲਿਤ ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਫੈਲਾਅ ਵਿੱਚ ਦੇਖਦੇ ਹਾਂ। ਅਸੀਂ ਇਸਨੂੰ ਉਸ ਤਰੀਕੇ ਵਿੱਚ ਦੇਖਦੇ ਹਾਂ ਜਿਸ ਨਾਲ AI ਦੀ ਵਰਤੋਂ ਖਪਤਕਾਰਾਂ ਦੇ ਵਿਵਹਾਰ ਨੂੰ ਹੇਰਾਫੇਰੀ ਕਰਨ ਲਈ ਕੀਤੀ ਜਾਂਦੀ ਹੈ। ਇਹਨਾਂ ਸਮੱਸਿਆਵਾਂ ਨੂੰ ਲਾਗੂ ਹੋਣ ਤੋਂ ਬਾਅਦ ਠੀਕ ਕਰਨ ਦੀ ਲਾਗਤ ਉਹਨਾਂ ਨੂੰ ਸ਼ੁਰੂ ਵਿੱਚ ਰੋਕਣ ਨਾਲੋਂ ਬਹੁਤ ਜ਼ਿਆਦਾ ਹੈ। ਸਾਨੂੰ ਸਿਰਫ਼ ਇੱਕ ਤੇਜ਼ ਚੈਟਬੋਟ ਤੋਂ ਵੱਧ ਦੀ ਮੰਗ ਕਰਨ ਦੀ ਲੋੜ ਹੈ। ਸਾਨੂੰ ਉਹਨਾਂ ਨੂੰ ਬਣਾਉਣ ਵਾਲੇ ਲੋਕਾਂ ਤੋਂ ਜਵਾਬਦੇਹੀ ਦੀ ਮੰਗ ਕਰਨ ਦੀ ਲੋੜ ਹੈ।
ਭਰੋਸੇ ਦਾ ਤਕਨੀਕੀ ਢਾਂਚਾ
ਇਹ ਸਿਸਟਮ ਬਣਾਉਣ ਵਾਲਿਆਂ ਲਈ, ਨੈਤਿਕਤਾ ਨੂੰ ਖਾਸ ਟੂਲਸ ਅਤੇ ਪ੍ਰੋਟੋਕੋਲ ਰਾਹੀਂ ਵਰਕਫਲੋ ਵਿੱਚ ਜੋੜਿਆ ਜਾਂਦਾ ਹੈ। ਡਿਵੈਲਪਰ ਟ੍ਰੇਨਿੰਗ ਸ਼ੁਰੂ ਹੋਣ ਤੋਂ ਪਹਿਲਾਂ ਡੇਟਾਸੈਟਾਂ ਵਿੱਚ ਪੱਖਪਾਤ ਦਾ ਪਤਾ ਲਗਾਉਣ ਲਈ Fairlearn ਵਰਗੀਆਂ ਲਾਇਬ੍ਰੇਰੀਆਂ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹਨ। ਉਹ ‘Constitutional AI’ ਨੂੰ ਵੀ ਲਾਗੂ ਕਰਦੇ ਹਨ। ਇਹ ਇੱਕ ਅਜਿਹਾ ਤਰੀਕਾ ਹੈ ਜਿੱਥੇ ਇੱਕ ਦੂਜੇ ਮਾਡਲ ਦੀ ਵਰਤੋਂ ਨਿਯਮਾਂ ਜਾਂ ਸੰਵਿਧਾਨ ਦੇ ਸੈੱਟ ਦੇ ਆਧਾਰ ‘ਤੇ ਪ੍ਰਾਇਮਰੀ ਮਾਡਲ ਦੀ ਆਲੋਚਨਾ ਅਤੇ ਮਾਰਗਦਰਸ਼ਨ ਕਰਨ ਲਈ ਕੀਤੀ ਜਾਂਦੀ ਹੈ। ਇਹ ਮਨੁੱਖੀ ਦਖਲ ਦੀ ਲੋੜ ਨੂੰ ਘਟਾਉਂਦਾ ਹੈ ਅਤੇ ਸੁਰੱਖਿਆ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਨੂੰ ਵਧੇਰੇ ਸਕੇਲੇਬਲ ਬਣਾਉਂਦਾ ਹੈ। API ਸੀਮਾਵਾਂ ਇੱਕ ਹੋਰ ਵਿਹਾਰਕ ਨੈਤਿਕ ਟੂਲ ਹਨ। ਬੇਨਤੀਆਂ ਦੀ ਗਿਣਤੀ ਨੂੰ ਸੀਮਤ ਕਰਕੇ, ਕੰਪਨੀਆਂ ਆਪਣੇ ਮਾਡਲਾਂ ਨੂੰ ਵੱਡੇ ਪੱਧਰ ‘ਤੇ ਗਲਤ ਜਾਣਕਾਰੀ ਮੁਹਿੰਮਾਂ ਜਾਂ ਸਵੈਚਲਿਤ ਸਾਈਬਰ ਹਮਲਿਆਂ ਲਈ ਵਰਤੇ ਜਾਣ ਤੋਂ ਰੋਕਦੀਆਂ ਹਨ।
ਲੋਕਲ ਸਟੋਰੇਜ ਗੋਪਨੀਯਤਾ ਲਈ ਇੱਕ ਵੱਡਾ ਰੁਝਾਨ ਬਣ ਰਿਹਾ ਹੈ। ਸਾਰੇ ਉਪਭੋਗਤਾ ਡੇਟਾ ਨੂੰ ਇੱਕ ਕੇਂਦਰੀ ਕਲਾਉਡ ‘ਤੇ ਭੇਜਣ ਦੀ ਬਜਾਏ, ਮਾਡਲਾਂ ਨੂੰ ਐਜ (edge) ‘ਤੇ ਚਲਾਉਣ ਲਈ ਅਨੁਕੂਲਿਤ ਕੀਤਾ ਜਾ ਰਿਹਾ ਹੈ। ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਡੇਟਾ ਉਪਭੋਗਤਾ ਦੇ ਫੋਨ ਜਾਂ ਲੈਪਟਾਪ ‘ਤੇ ਹੀ ਰਹਿੰਦਾ ਹੈ। ਅਸੀਂ ਪ੍ਰਮਾਣਿਤ ਵਾਟਰਮਾਰਕਿੰਗ ਦਾ ਵਾਧਾ ਵੀ ਦੇਖ ਰਹੇ ਹਾਂ। ਇਹ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਇਹ ਜਾਣਨ ਦੀ ਇਜਾਜ਼ਤ ਦਿੰਦਾ ਹੈ ਕਿ ਕੀ ਕੋਈ ਸਮੱਗਰੀ AI ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀ ਗਈ ਸੀ। ਤਕਨੀਕੀ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਤੋਂ, ਇਸ ਲਈ ਮਜ਼ਬੂਤ ਮੈਟਾਡੇਟਾ ਮਿਆਰਾਂ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ ਜਿਨ੍ਹਾਂ ਨੂੰ ਜਾਅਲੀ ਕਰਨਾ ਮੁਸ਼ਕਲ ਹੈ। ਲੋਕਲ ਇਨਫਰੈਂਸ ਕਾਨੂੰਨ ਜਾਂ ਦਵਾਈ ਵਰਗੇ ਉੱਚ-ਦਾਅ ਵਾਲੇ ਉਦਯੋਗਾਂ ਲਈ ਗੋਲਡ ਸਟੈਂਡਰਡ ਹੈ। ਇਹ ਯਕੀਨੀ ਬਣਾਉਂਦਾ ਹੈ ਕਿ ਸੰਵੇਦਨਸ਼ੀਲ ਕਲਾਇੰਟ ਜਾਣਕਾਰੀ ਕਦੇ ਵੀ ਸੁਰੱਖਿਅਤ ਲੋਕਲ ਨੈੱਟਵਰਕ ਨੂੰ ਨਹੀਂ ਛੱਡਦੀ। ਇਹ ਉਹ ਤਕਨੀਕੀ ਰੁਕਾਵਟਾਂ ਹਨ ਜੋ AI ਵਿਕਾਸ ਦੀ ਅਗਲੀ ਪੀੜ੍ਹੀ ਨੂੰ ਪਰਿਭਾਸ਼ਿਤ ਕਰਦੀਆਂ ਹਨ।
ਪਾਵਰ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਹੇਠ ਲਿਖੀਆਂ ਤਕਨੀਕੀ ਸੀਮਾਵਾਂ ‘ਤੇ ਵੀ ਨਜ਼ਰ ਰੱਖਣੀ ਚਾਹੀਦੀ ਹੈ:
- ਇਨਫਰੈਂਸ ਦੇ ਕਾਰਬਨ ਫੁੱਟਪ੍ਰਿੰਟ ਨੂੰ ਘਟਾਉਣ ਲਈ ਮਾਡਲ ਡਿਸਟਿਲੇਸ਼ਨ।
- ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਡਿਫਰੈਂਸ਼ੀਅਲ ਪ੍ਰਾਈਵੇਸੀ ਕਿ ਟ੍ਰੇਨਿੰਗ ਡੇਟਾ ਨੂੰ ਦੁਬਾਰਾ ਬਣਾਇਆ ਨਾ ਜਾ ਸਕੇ।
- ਮਾਡਲ ਤਰਕ ‘ਤੇ ਵਿਰੋਧੀ ਹਮਲਿਆਂ ਨੂੰ ਰੋਕਣ ਲਈ ਰੇਟ ਲਿਮਿਟਿੰਗ।
- ਨਵੀਨਤਮ AI ਨੈਤਿਕਤਾ ਰਿਪੋਰਟਾਂ ਅਤੇ ਬੈਂਚਮਾਰਕਾਂ ਦੇ ਨਿਯਮਤ ਆਡਿਟ।
- ਉੱਚ-ਦਾਅ ਵਾਲੇ ਫੈਸਲੇ ਲੈਣ ਲਈ ‘Human in the loop’ ਸਿਸਟਮ।
ਮਾਰਕੀਟ ਦਾ ਗੀਕ ਸੈਕਸ਼ਨ ਜਾਣਦਾ ਹੈ ਕਿ ਗੋਪਨੀਯਤਾ ਇੱਕ ਵਿਸ਼ੇਸ਼ਤਾ ਹੈ। ਜੇਕਰ ਤੁਸੀਂ ਇੱਕ ਅਜਿਹਾ ਮਾਡਲ ਪ੍ਰਦਾਨ ਕਰ ਸਕਦੇ ਹੋ ਜੋ ਡੇਟਾ ਲੀਕ ਕੀਤੇ ਬਿਨਾਂ 100 m2 ਸਰਵਰ ਸਪੇਸ ‘ਤੇ ਚੱਲਦਾ ਹੈ, ਤਾਂ ਤੁਹਾਡੇ ਕੋਲ ਇੱਕ ਮੁਕਾਬਲੇਬਾਜ਼ੀ ਦਾ ਫਾਇਦਾ ਹੈ। ਫੋਕਸ ਮਾਡਲ ਦੇ ਆਕਾਰ ਤੋਂ ਹਟ ਕੇ ਮਾਡਲ ਦੀ ਕੁਸ਼ਲਤਾ ਅਤੇ ਸੁਰੱਖਿਆ ਵੱਲ ਜਾ ਰਿਹਾ ਹੈ। ਇਸ ਲਈ ਇਹ ਡੂੰਘੀ ਸਮਝ ਦੀ ਲੋੜ ਹੈ ਕਿ ਵਜ਼ਨ ਅਤੇ ਪੱਖਪਾਤ ਕਿਵੇਂ ਵੰਡੇ ਜਾਂਦੇ ਹਨ। ਇਸ ਲਈ ਓਪਨ ਸਟੈਂਡਰਡਾਂ ਪ੍ਰਤੀ ਵਚਨਬੱਧਤਾ ਦੀ ਵੀ ਲੋੜ ਹੈ ਤਾਂ ਜੋ ਸੁਰੱਖਿਆ ਦਾ ਆਡਿਟ ਤੀਜੀ ਧਿਰ ਦੁਆਰਾ ਕੀਤਾ ਜਾ ਸਕੇ। ਟੀਚਾ ਇੱਕ ਅਜਿਹਾ ਸਿਸਟਮ ਬਣਾਉਣਾ ਹੈ ਜੋ ਡਿਜ਼ਾਈਨ ਦੁਆਰਾ ਸੁਰੱਖਿਅਤ ਹੋਵੇ ਨਾ ਕਿ ਦੁਰਘਟਨਾ ਦੁਆਰਾ।
ਲੰਬੇ ਸਮੇਂ ਲਈ ਨਿਰਮਾਣ
ਸਪੀਡ ਲਾਪਰਵਾਹੀ ਵਾਲੀ ਇੰਜੀਨੀਅਰਿੰਗ ਲਈ ਕੋਈ ਬਹਾਨਾ ਨਹੀਂ ਹੈ। ਜਿਵੇਂ-ਜਿਵੇਂ AI ਸਾਡੇ ਜੀਵਨ ਵਿੱਚ ਵਧੇਰੇ ਏਕੀਕ੍ਰਿਤ ਹੁੰਦਾ ਜਾ ਰਿਹਾ ਹੈ, ਅਸਫਲਤਾ ਦੀ ਲਾਗਤ ਵਧਦੀ ਜਾ ਰਹੀ ਹੈ। ਨੈਤਿਕਤਾ ਉਹ ਗਾਰਡਰੇਲ ਹੈ ਜੋ ਉਦਯੋਗ ਨੂੰ ਖੱਡ ਵਿੱਚ ਡਿੱਗਣ ਤੋਂ ਬਚਾਉਂਦੀ ਹੈ। ਇਹ ਅਜਿਹੇ ਸਿਸਟਮ ਬਣਾਉਣ ਬਾਰੇ ਹੈ ਜੋ ਭਰੋਸੇਮੰਦ, ਪਾਰਦਰਸ਼ੀ ਅਤੇ ਨਿਰਪੱਖ ਹਨ। ਜੋ ਕੰਪਨੀਆਂ ਇਹਨਾਂ ਸਿਧਾਂਤਾਂ ਨੂੰ ਨਜ਼ਰਅੰਦਾਜ਼ ਕਰਦੀਆਂ ਹਨ, ਉਹ 2026 ਵਿੱਚ ਲਾਂਚ ਕਰਨ ਦੀ ਦੌੜ ਤਾਂ ਜਿੱਤ ਸਕਦੀਆਂ ਹਨ, ਪਰ ਉਹ ਪ੍ਰਸੰਗਿਕ ਰਹਿਣ ਦੀ ਦੌੜ ਹਾਰ ਜਾਣਗੀਆਂ। ਟੈਕਨਾਲੋਜੀ ਦਾ ਭਵਿੱਖ ਉਹਨਾਂ ਦਾ ਹੈ ਜੋ ਇਨੋਵੇਸ਼ਨ ਨੂੰ ਜ਼ਿੰਮੇਵਾਰੀ ਨਾਲ ਸੰਤੁਲਿਤ ਕਰ ਸਕਦੇ ਹਨ। ਸਾਨੂੰ ਸਖ਼ਤ ਸਵਾਲ ਪੁੱਛਦੇ ਰਹਿਣਾ ਚਾਹੀਦਾ ਹੈ ਅਤੇ ਉਹਨਾਂ ਟੂਲਸ ਤੋਂ ਬਿਹਤਰ ਦੀ ਮੰਗ ਕਰਨੀ ਚਾਹੀਦੀ ਹੈ ਜੋ ਅਸੀਂ ਵਰਤਦੇ ਹਾਂ। ਟੀਚਾ ਸਿਰਫ਼ ਤੇਜ਼ AI ਨਹੀਂ, ਸਗੋਂ ਬਿਹਤਰ AI ਹੈ ਜੋ ਬਿਨਾਂ ਕਿਸੇ ਸਮਝੌਤੇ ਦੇ ਸਾਰਿਆਂ ਦੀ ਸੇਵਾ ਕਰੇ। ਸਾਨੂੰ ਨੈਤਿਕਤਾ ਨੂੰ ਇੱਕ ਰੁਕਾਵਟ ਵਜੋਂ ਦੇਖਣਾ ਬੰਦ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ ਅਤੇ ਇਸਨੂੰ ਹਰ ਸਫਲ ਪ੍ਰੋਡਕਟ ਦੀ ਨੀਂਹ ਵਜੋਂ ਦੇਖਣਾ ਸ਼ੁਰੂ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ।
編者按: 我們創建這個網站,是為了那些不是電腦高手,但仍希望了解人工智慧、更自信地使用它,並追隨已經到來的未來的人們,提供一個多語言的人工智慧新聞和指南中心。
ਕੋਈ ਗਲਤੀ ਮਿਲੀ ਜਾਂ ਕੁਝ ਠੀਕ ਕਰਨ ਦੀ ਲੋੜ ਹੈ? ਸਾਨੂੰ ਦੱਸੋ।